@lobehub/chat 1.88.20 → 1.88.21

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (77) hide show
  1. package/.i18nrc.js +1 -1
  2. package/CHANGELOG.md +26 -0
  3. package/changelog/v1.json +9 -0
  4. package/locales/ar/chat.json +3 -0
  5. package/locales/ar/models.json +92 -17
  6. package/locales/ar/setting.json +0 -12
  7. package/locales/bg-BG/chat.json +3 -0
  8. package/locales/bg-BG/models.json +92 -17
  9. package/locales/bg-BG/setting.json +0 -12
  10. package/locales/de-DE/chat.json +3 -0
  11. package/locales/de-DE/models.json +92 -17
  12. package/locales/de-DE/setting.json +0 -12
  13. package/locales/en-US/chat.json +3 -0
  14. package/locales/en-US/models.json +92 -17
  15. package/locales/en-US/setting.json +0 -12
  16. package/locales/es-ES/chat.json +3 -0
  17. package/locales/es-ES/models.json +92 -17
  18. package/locales/es-ES/setting.json +0 -12
  19. package/locales/fa-IR/chat.json +3 -0
  20. package/locales/fa-IR/models.json +92 -17
  21. package/locales/fa-IR/setting.json +0 -12
  22. package/locales/fr-FR/chat.json +3 -0
  23. package/locales/fr-FR/models.json +92 -17
  24. package/locales/fr-FR/setting.json +0 -12
  25. package/locales/it-IT/chat.json +3 -0
  26. package/locales/it-IT/models.json +92 -17
  27. package/locales/it-IT/setting.json +0 -12
  28. package/locales/ja-JP/chat.json +3 -0
  29. package/locales/ja-JP/models.json +92 -17
  30. package/locales/ja-JP/setting.json +0 -12
  31. package/locales/ko-KR/chat.json +3 -0
  32. package/locales/ko-KR/models.json +92 -17
  33. package/locales/ko-KR/setting.json +0 -12
  34. package/locales/nl-NL/chat.json +3 -0
  35. package/locales/nl-NL/models.json +92 -17
  36. package/locales/nl-NL/setting.json +0 -12
  37. package/locales/pl-PL/chat.json +3 -0
  38. package/locales/pl-PL/models.json +92 -17
  39. package/locales/pl-PL/setting.json +0 -12
  40. package/locales/pt-BR/chat.json +3 -0
  41. package/locales/pt-BR/models.json +92 -17
  42. package/locales/pt-BR/setting.json +0 -12
  43. package/locales/ru-RU/chat.json +3 -0
  44. package/locales/ru-RU/models.json +92 -17
  45. package/locales/ru-RU/setting.json +0 -12
  46. package/locales/tr-TR/chat.json +3 -0
  47. package/locales/tr-TR/models.json +92 -17
  48. package/locales/tr-TR/setting.json +0 -12
  49. package/locales/vi-VN/chat.json +3 -0
  50. package/locales/vi-VN/models.json +92 -17
  51. package/locales/vi-VN/setting.json +0 -12
  52. package/locales/zh-CN/chat.json +3 -0
  53. package/locales/zh-CN/models.json +89 -14
  54. package/locales/zh-CN/setting.json +0 -12
  55. package/locales/zh-TW/chat.json +3 -0
  56. package/locales/zh-TW/models.json +92 -17
  57. package/locales/zh-TW/setting.json +0 -12
  58. package/package.json +1 -1
  59. package/src/config/aiModels/deepseek.ts +5 -3
  60. package/src/config/aiModels/groq.ts +16 -29
  61. package/src/config/aiModels/hunyuan.ts +104 -82
  62. package/src/config/aiModels/novita.ts +27 -121
  63. package/src/config/aiModels/openai.ts +19 -2
  64. package/src/config/aiModels/openrouter.ts +59 -47
  65. package/src/config/aiModels/siliconcloud.ts +73 -39
  66. package/src/config/aiModels/volcengine.ts +3 -3
  67. package/src/config/aiModels/xai.ts +2 -0
  68. package/src/features/AgentSetting/AgentModal/index.tsx +1 -26
  69. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
  70. package/src/features/ChatInput/ActionBar/Model/ReasoningEffortSlider.tsx +57 -0
  71. package/src/libs/model-runtime/novita/__snapshots__/index.test.ts.snap +1 -1
  72. package/src/locales/default/chat.ts +3 -0
  73. package/src/locales/default/setting.ts +0 -12
  74. package/src/services/chat.ts +5 -1
  75. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -5
  76. package/src/types/agent/chatConfig.ts +1 -0
  77. package/src/types/aiModel.ts +5 -1
@@ -341,9 +341,6 @@
341
341
  "Qwen2.5-Coder-32B-Instruct": {
342
342
  "description": "Qwen2.5-Coder-32B-Instruct es un modelo de lenguaje grande diseñado específicamente para la generación de código, comprensión de código y escenarios de desarrollo eficiente, con una escala de 32B parámetros, líder en la industria, capaz de satisfacer diversas necesidades de programación."
343
343
  },
344
- "SenseCat-5-1202": {
345
- "description": "Es la última versión basada en V5.5, que ha mostrado mejoras significativas en varios aspectos en comparación con la versión anterior, incluyendo habilidades básicas en chino e inglés, conversación, conocimientos de ciencias, conocimientos de humanidades, escritura, lógica matemática y control de palabras."
346
- },
347
344
  "SenseChat": {
348
345
  "description": "Modelo de versión básica (V4), longitud de contexto de 4K, con potentes capacidades generales."
349
346
  },
@@ -356,6 +353,9 @@
356
353
  "SenseChat-5": {
357
354
  "description": "Modelo de última versión (V5.5), longitud de contexto de 128K, con capacidades significativamente mejoradas en razonamiento matemático, diálogos en inglés, seguimiento de instrucciones y comprensión de textos largos, comparable a GPT-4o."
358
355
  },
356
+ "SenseChat-5-1202": {
357
+ "description": "Basado en la versión más reciente V5.5, con mejoras significativas en capacidades básicas en chino e inglés, chat, conocimientos científicos y humanísticos, redacción, lógica matemática y control de longitud de texto."
358
+ },
359
359
  "SenseChat-5-Cantonese": {
360
360
  "description": "Longitud de contexto de 32K, supera a GPT-4 en la comprensión de diálogos en cantonés, siendo comparable a GPT-4 Turbo en múltiples áreas como conocimiento, razonamiento, matemáticas y programación."
361
361
  },
@@ -515,6 +515,12 @@
515
515
  "ai21-jamba-1.5-mini": {
516
516
  "description": "Un modelo multilingüe de 52B parámetros (12B activos), que ofrece una ventana de contexto larga de 256K, llamada a funciones, salida estructurada y generación fundamentada."
517
517
  },
518
+ "ai21-labs/AI21-Jamba-1.5-Large": {
519
+ "description": "Un modelo multilingüe de 398 mil millones de parámetros (94 mil millones activos), que ofrece una ventana de contexto larga de 256K, llamadas a funciones, salida estructurada y generación basada en hechos."
520
+ },
521
+ "ai21-labs/AI21-Jamba-1.5-Mini": {
522
+ "description": "Un modelo multilingüe de 52 mil millones de parámetros (12 mil millones activos), que ofrece una ventana de contexto larga de 256K, llamadas a funciones, salida estructurada y generación basada en hechos."
523
+ },
518
524
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
519
525
  "description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
520
526
  },
@@ -668,6 +674,12 @@
668
674
  "cohere-command-r-plus": {
669
675
  "description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial."
670
676
  },
677
+ "cohere/Cohere-command-r": {
678
+ "description": "Command R es un modelo generativo escalable diseñado para su uso con RAG y herramientas, que permite a las empresas implementar IA de nivel productivo."
679
+ },
680
+ "cohere/Cohere-command-r-plus": {
681
+ "description": "Command R+ es un modelo optimizado de última generación para RAG, diseñado para manejar cargas de trabajo empresariales."
682
+ },
671
683
  "command": {
672
684
  "description": "Un modelo de conversación que sigue instrucciones, ofreciendo alta calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que nuestros modelos de generación básicos."
673
685
  },
@@ -1028,6 +1040,12 @@
1028
1040
  "gemini-2.5-flash-preview-04-17": {
1029
1041
  "description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google, que ofrece una funcionalidad completa."
1030
1042
  },
1043
+ "gemini-2.5-flash-preview-04-17-thinking": {
1044
+ "description": "Gemini 2.5 Flash Preview es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
1045
+ },
1046
+ "gemini-2.5-flash-preview-05-20": {
1047
+ "description": "Gemini 2.5 Flash Preview es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
1048
+ },
1031
1049
  "gemini-2.5-pro-exp-03-25": {
1032
1050
  "description": "Gemini 2.5 Pro Experimental es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, además de utilizar contextos largos para analizar grandes conjuntos de datos, bibliotecas de código y documentos."
1033
1051
  },
@@ -1262,23 +1280,17 @@
1262
1280
  "grok-2-vision-1212": {
1263
1281
  "description": "Este modelo ha mejorado en precisión, cumplimiento de instrucciones y capacidades multilingües."
1264
1282
  },
1265
- "grok-3-beta": {
1266
- "description": "Modelo insignia, experto en extracción de datos, programación y resúmenes de texto para aplicaciones empresariales, con un profundo conocimiento en campos como finanzas, salud, derecho y ciencia."
1267
- },
1268
- "grok-3-fast-beta": {
1269
- "description": "Modelo insignia, experto en extracción de datos, programación y resúmenes de texto para aplicaciones empresariales, con un profundo conocimiento en campos como finanzas, salud, derecho y ciencia."
1283
+ "grok-3": {
1284
+ "description": "Modelo insignia, experto en extracción de datos, programación y resumen de texto para aplicaciones empresariales, con profundo conocimiento en finanzas, medicina, derecho y ciencias."
1270
1285
  },
1271
- "grok-3-mini-beta": {
1272
- "description": "Modelo ligero, que reflexiona antes de la conversación. Rápido e inteligente, adecuado para tareas lógicas que no requieren un conocimiento profundo del dominio, y capaz de capturar la trayectoria de pensamiento original."
1286
+ "grok-3-fast": {
1287
+ "description": "Modelo insignia, experto en extracción de datos, programación y resumen de texto para aplicaciones empresariales, con profundo conocimiento en finanzas, medicina, derecho y ciencias."
1273
1288
  },
1274
- "grok-3-mini-fast-beta": {
1275
- "description": "Modelo ligero, que reflexiona antes de la conversación. Rápido e inteligente, adecuado para tareas lógicas que no requieren un conocimiento profundo del dominio, y capaz de capturar la trayectoria de pensamiento original."
1289
+ "grok-3-mini": {
1290
+ "description": "Modelo ligero que piensa antes de responder. Rápido e inteligente, adecuado para tareas lógicas que no requieren conocimientos profundos de dominio y capaz de proporcionar la trayectoria original del pensamiento."
1276
1291
  },
1277
- "grok-beta": {
1278
- "description": "Ofrece un rendimiento comparable al de Grok 2, pero con mayor eficiencia, velocidad y funcionalidad."
1279
- },
1280
- "grok-vision-beta": {
1281
- "description": "El último modelo de comprensión de imágenes, capaz de manejar una amplia variedad de información visual, incluyendo documentos, gráficos, capturas de pantalla y fotos."
1292
+ "grok-3-mini-fast": {
1293
+ "description": "Modelo ligero que piensa antes de responder. Rápido e inteligente, adecuado para tareas lógicas que no requieren conocimientos profundos de dominio y capaz de proporcionar la trayectoria original del pensamiento."
1282
1294
  },
1283
1295
  "gryphe/mythomax-l2-13b": {
1284
1296
  "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
@@ -1322,6 +1334,9 @@
1322
1334
  "hunyuan-t1-latest": {
1323
1335
  "description": "El primer modelo de inferencia híbrido de gran escala Hybrid-Transformer-Mamba de la industria, que amplía la capacidad de inferencia, ofrece una velocidad de decodificación excepcional y alinea aún más con las preferencias humanas."
1324
1336
  },
1337
+ "hunyuan-t1-vision": {
1338
+ "description": "Modelo de pensamiento profundo multimodal Hunyuan, que soporta cadenas de pensamiento nativas multimodales, sobresale en diversos escenarios de razonamiento con imágenes y mejora significativamente en problemas científicos en comparación con modelos de pensamiento rápido."
1339
+ },
1325
1340
  "hunyuan-translation": {
1326
1341
  "description": "Soporta la traducción entre 15 idiomas, incluyendo chino, inglés, japonés, francés, portugués, español, turco, ruso, árabe, coreano, italiano, alemán, vietnamita, malayo e indonesio, con evaluación automatizada basada en el conjunto de evaluación de traducción en múltiples escenarios y puntuación COMET, superando en general a modelos de tamaño similar en la capacidad de traducción entre idiomas comunes."
1327
1342
  },
@@ -1586,6 +1601,30 @@
1586
1601
  "meta.llama3-8b-instruct-v1:0": {
1587
1602
  "description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos."
1588
1603
  },
1604
+ "meta/Llama-3.2-11B-Vision-Instruct": {
1605
+ "description": "Destaca en razonamiento de imágenes de alta resolución, ideal para aplicaciones de comprensión visual."
1606
+ },
1607
+ "meta/Llama-3.2-90B-Vision-Instruct": {
1608
+ "description": "Capacidades avanzadas de razonamiento de imágenes para aplicaciones de agentes de comprensión visual."
1609
+ },
1610
+ "meta/Llama-3.3-70B-Instruct": {
1611
+ "description": "Llama 3.3 es el modelo de lenguaje grande multilingüe de código abierto más avanzado de la serie Llama, que ofrece un rendimiento comparable a modelos de 405 mil millones de parámetros a un costo muy bajo. Basado en la arquitectura Transformer, mejorado mediante ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para mejorar su utilidad y seguridad. Su versión ajustada por instrucciones está optimizada para diálogos multilingües y supera a muchos modelos de chat abiertos y cerrados en varios puntos de referencia industriales. Fecha de corte de conocimiento: diciembre de 2023."
1612
+ },
1613
+ "meta/Meta-Llama-3-70B-Instruct": {
1614
+ "description": "Un potente modelo de 70 mil millones de parámetros, que destaca en razonamiento, codificación y aplicaciones lingüísticas amplias."
1615
+ },
1616
+ "meta/Meta-Llama-3-8B-Instruct": {
1617
+ "description": "Un modelo versátil de 8 mil millones de parámetros, optimizado para tareas de diálogo y generación de texto."
1618
+ },
1619
+ "meta/Meta-Llama-3.1-405B-Instruct": {
1620
+ "description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
1621
+ },
1622
+ "meta/Meta-Llama-3.1-70B-Instruct": {
1623
+ "description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
1624
+ },
1625
+ "meta/Meta-Llama-3.1-8B-Instruct": {
1626
+ "description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
1627
+ },
1589
1628
  "meta/llama-3.1-405b-instruct": {
1590
1629
  "description": "LLM avanzado, que soporta generación de datos sintéticos, destilación de conocimiento y razonamiento, adecuado para chatbots, programación y tareas de dominio específico."
1591
1630
  },
@@ -1610,6 +1649,30 @@
1610
1649
  "meta/llama-3.3-70b-instruct": {
1611
1650
  "description": "Modelo LLM avanzado, experto en razonamiento, matemáticas, sentido común y llamadas a funciones."
1612
1651
  },
1652
+ "microsoft/Phi-3-medium-128k-instruct": {
1653
+ "description": "El mismo modelo Phi-3-medium, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
1654
+ },
1655
+ "microsoft/Phi-3-medium-4k-instruct": {
1656
+ "description": "Un modelo de 14 mil millones de parámetros, con mejor calidad que Phi-3-mini, enfocado en datos de alta calidad y razonamiento intensivo."
1657
+ },
1658
+ "microsoft/Phi-3-mini-128k-instruct": {
1659
+ "description": "El mismo modelo Phi-3-mini, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
1660
+ },
1661
+ "microsoft/Phi-3-mini-4k-instruct": {
1662
+ "description": "El miembro más pequeño de la familia Phi-3, optimizado para calidad y baja latencia."
1663
+ },
1664
+ "microsoft/Phi-3-small-128k-instruct": {
1665
+ "description": "El mismo modelo Phi-3-small, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
1666
+ },
1667
+ "microsoft/Phi-3-small-8k-instruct": {
1668
+ "description": "Un modelo de 7 mil millones de parámetros, con mejor calidad que Phi-3-mini, enfocado en datos de alta calidad y razonamiento intensivo."
1669
+ },
1670
+ "microsoft/Phi-3.5-mini-instruct": {
1671
+ "description": "Versión actualizada del modelo Phi-3-mini."
1672
+ },
1673
+ "microsoft/Phi-3.5-vision-instruct": {
1674
+ "description": "Versión actualizada del modelo Phi-3-vision."
1675
+ },
1613
1676
  "microsoft/WizardLM-2-8x22B": {
1614
1677
  "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes."
1615
1678
  },
@@ -1628,6 +1691,15 @@
1628
1691
  "mistral": {
1629
1692
  "description": "Mistral es un modelo de 7B lanzado por Mistral AI, adecuado para necesidades de procesamiento de lenguaje variables."
1630
1693
  },
1694
+ "mistral-ai/Mistral-Large-2411": {
1695
+ "description": "El modelo insignia de Mistral, adecuado para tareas complejas que requieren capacidades de razonamiento a gran escala o alta especialización (generación de texto sintético, generación de código, RAG o agentes)."
1696
+ },
1697
+ "mistral-ai/Mistral-Nemo": {
1698
+ "description": "Mistral Nemo es un modelo de lenguaje avanzado (LLM) que ofrece capacidades de razonamiento, conocimiento mundial y codificación líderes en su categoría de tamaño."
1699
+ },
1700
+ "mistral-ai/mistral-small-2503": {
1701
+ "description": "Mistral Small está disponible para cualquier tarea basada en lenguaje que requiera alta eficiencia y baja latencia."
1702
+ },
1631
1703
  "mistral-large": {
1632
1704
  "description": "Mixtral Large es el modelo insignia de Mistral, combinando capacidades de generación de código, matemáticas y razonamiento, soportando una ventana de contexto de 128k."
1633
1705
  },
@@ -1769,6 +1841,9 @@
1769
1841
  "openai/gpt-4o-mini": {
1770
1842
  "description": "GPT-4o mini es el modelo más reciente de OpenAI, lanzado después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de tamaño pequeño, es mucho más económico que otros modelos de vanguardia recientes y más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio notable. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
1771
1843
  },
1844
+ "openai/o1": {
1845
+ "description": "o1 es el nuevo modelo de razonamiento de OpenAI, que admite entradas de texto e imagen y produce texto, adecuado para tareas complejas que requieren un conocimiento general amplio. Este modelo cuenta con un contexto de 200K y una fecha de corte de conocimiento en octubre de 2023."
1846
+ },
1772
1847
  "openai/o1-mini": {
1773
1848
  "description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
1774
1849
  },
@@ -259,9 +259,6 @@
259
259
  "enableMaxTokens": {
260
260
  "title": "Activar límite de tokens por respuesta"
261
261
  },
262
- "enableReasoningEffort": {
263
- "title": "Activar ajuste de intensidad de razonamiento"
264
- },
265
262
  "frequencyPenalty": {
266
263
  "desc": "Cuanto mayor sea el valor, más rica y variada será la elección de palabras; cuanto menor sea el valor, más simples y directas serán las palabras.",
267
264
  "title": "Riqueza del vocabulario"
@@ -281,15 +278,6 @@
281
278
  "desc": "Cuanto mayor sea el valor, más se inclinará hacia diferentes formas de expresión, evitando la repetición de conceptos; cuanto menor sea el valor, más se inclinará hacia el uso de conceptos o narrativas repetidas, expresando mayor consistencia.",
282
279
  "title": "Diversidad de expresión"
283
280
  },
284
- "reasoningEffort": {
285
- "desc": "Cuanto mayor sea el valor, más fuerte será la capacidad de razonamiento, pero puede aumentar el tiempo de respuesta y el consumo de tokens.",
286
- "options": {
287
- "high": "Alto",
288
- "low": "Bajo",
289
- "medium": "Medio"
290
- },
291
- "title": "Intensidad de razonamiento"
292
- },
293
281
  "submit": "Actualizar configuración del modelo",
294
282
  "temperature": {
295
283
  "desc": "Cuanto mayor sea el valor, más creativas e imaginativas serán las respuestas; cuanto menor sea el valor, más rigurosas serán las respuestas",
@@ -43,6 +43,9 @@
43
43
  "reasoningBudgetToken": {
44
44
  "title": "توکن مصرف تفکر"
45
45
  },
46
+ "reasoningEffort": {
47
+ "title": "شدت استدلال"
48
+ },
46
49
  "title": "ویژگی‌های گسترش مدل"
47
50
  },
48
51
  "history": {
@@ -341,9 +341,6 @@
341
341
  "Qwen2.5-Coder-32B-Instruct": {
342
342
  "description": "Qwen2.5-Coder-32B-Instruct یک مدل زبان بزرگ است که به طور خاص برای تولید کد، درک کد و سناریوهای توسعه کارآمد طراحی شده است و از مقیاس 32B پارامتر پیشرفته در صنعت بهره می‌برد و می‌تواند نیازهای متنوع برنامه‌نویسی را برآورده کند."
343
343
  },
344
- "SenseCat-5-1202": {
345
- "description": "نسخه جدیدترین بر اساس V5.5 است که در مقایسه با نسخه قبلی در توانایی‌های پایه چینی و انگلیسی، چت، دانش علوم، دانش انسانی، نوشتن، منطق ریاضی و کنترل تعداد کلمات به طور قابل توجهی بهبود یافته است."
346
- },
347
344
  "SenseChat": {
348
345
  "description": "نسخه پایه مدل (V4)، طول متن ۴K، با توانایی‌های عمومی قوی"
349
346
  },
@@ -356,6 +353,9 @@
356
353
  "SenseChat-5": {
357
354
  "description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینه‌های استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
358
355
  },
356
+ "SenseChat-5-1202": {
357
+ "description": "نسخه جدید مبتنی بر V5.5 که نسبت به نسخه قبلی در توانایی‌های پایه‌ای زبان‌های چینی و انگلیسی، گفتگو، دانش علوم پایه، دانش علوم انسانی، نوشتار، منطق ریاضی و کنترل تعداد کلمات بهبود قابل توجهی داشته است."
358
+ },
359
359
  "SenseChat-5-Cantonese": {
360
360
  "description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی می‌گیرد و در زمینه‌های مختلفی مانند دانش، استدلال، ریاضیات و برنامه‌نویسی با GPT-4 Turbo قابل مقایسه است."
361
361
  },
@@ -515,6 +515,12 @@
515
515
  "ai21-jamba-1.5-mini": {
516
516
  "description": "یک مدل چندزبانه با 52 میلیارد پارامتر (12 میلیارد فعال) که پنجره متنی طولانی 256K، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
517
517
  },
518
+ "ai21-labs/AI21-Jamba-1.5-Large": {
519
+ "description": "یک مدل چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
520
+ },
521
+ "ai21-labs/AI21-Jamba-1.5-Mini": {
522
+ "description": "یک مدل چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
523
+ },
518
524
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
519
525
  "description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدل‌های رقیب و Claude 3 Opus دارد، در ارزیابی‌های گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدل‌های سطح متوسط ما را حفظ می‌کند."
520
526
  },
@@ -668,6 +674,12 @@
668
674
  "cohere-command-r-plus": {
669
675
  "description": "Command R+ یک مدل پیشرفته بهینه‌سازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
670
676
  },
677
+ "cohere/Cohere-command-r": {
678
+ "description": "Command R یک مدل تولیدی مقیاس‌پذیر است که برای استفاده در RAG و ابزارها طراحی شده است تا به کسب‌وکارها امکان پیاده‌سازی هوش مصنوعی در سطح تولید را بدهد."
679
+ },
680
+ "cohere/Cohere-command-r-plus": {
681
+ "description": "Command R+ یک مدل بهینه‌سازی شده پیشرفته برای RAG است که برای بارهای کاری سازمانی طراحی شده است."
682
+ },
671
683
  "command": {
672
684
  "description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه می‌دهد و نسبت به مدل‌های تولید پایه ما دارای طول زمینه بیشتری است."
673
685
  },
@@ -1028,6 +1040,12 @@
1028
1040
  "gemini-2.5-flash-preview-04-17": {
1029
1041
  "description": "پیش‌نمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه می‌دهد."
1030
1042
  },
1043
+ "gemini-2.5-flash-preview-04-17-thinking": {
1044
+ "description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل است که امکانات جامع ارائه می‌دهد."
1045
+ },
1046
+ "gemini-2.5-flash-preview-05-20": {
1047
+ "description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل است که امکانات جامع ارائه می‌دهد."
1048
+ },
1031
1049
  "gemini-2.5-pro-exp-03-25": {
1032
1050
  "description": "Gemini 2.5 Pro Experimental پیشرفته‌ترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در زمینه‌های کد، ریاضیات و STEM می‌باشد و همچنین می‌تواند با استفاده از زمینه‌های طولانی، مجموعه‌های داده بزرگ، کتابخانه‌های کد و مستندات را تحلیل کند."
1033
1051
  },
@@ -1262,23 +1280,17 @@
1262
1280
  "grok-2-vision-1212": {
1263
1281
  "description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
1264
1282
  },
1265
- "grok-3-beta": {
1266
- "description": "مدل پرچمدار، متخصص در استخراج داده، برنامه‌نویسی و خلاصه‌سازی متن برای کاربردهای سازمانی، با دانش عمیق در زمینه‌های مالی، پزشکی، حقوقی و علمی."
1283
+ "grok-3": {
1284
+ "description": "مدل پرچمدار که در استخراج داده، برنامه‌نویسی و خلاصه‌سازی متن برای کاربردهای سازمانی مهارت دارد و دانش عمیقی در حوزه‌های مالی، پزشکی، حقوقی و علمی دارد."
1267
1285
  },
1268
- "grok-3-fast-beta": {
1269
- "description": "مدل پرچمدار، متخصص در استخراج داده، برنامه‌نویسی و خلاصه‌سازی متن برای کاربردهای سازمانی، با دانش عمیق در زمینه‌های مالی، پزشکی، حقوقی و علمی."
1286
+ "grok-3-fast": {
1287
+ "description": "مدل پرچمدار که در استخراج داده، برنامه‌نویسی و خلاصه‌سازی متن برای کاربردهای سازمانی مهارت دارد و دانش عمیقی در حوزه‌های مالی، پزشکی، حقوقی و علمی دارد."
1270
1288
  },
1271
- "grok-3-mini-beta": {
1272
- "description": "مدل سبک‌وزن، قبل از گفتگو فکر می‌کند. سریع و هوشمند است و برای وظایف منطقی که به دانش عمیق حوزه نیاز ندارند مناسب است و می‌تواند مسیر تفکر اولیه را به دست آورد."
1289
+ "grok-3-mini": {
1290
+ "description": "مدل سبک‌وزن که قبل از پاسخگویی تفکر می‌کند. سریع و هوشمند اجرا می‌شود، مناسب برای وظایف منطقی که نیاز به دانش عمیق حوزه ندارند و می‌تواند مسیر تفکر اصلی را ارائه دهد."
1273
1291
  },
1274
- "grok-3-mini-fast-beta": {
1275
- "description": "مدل سبک‌وزن، قبل از گفتگو فکر می‌کند. سریع و هوشمند است و برای وظایف منطقی که به دانش عمیق حوزه نیاز ندارند مناسب است و می‌تواند مسیر تفکر اولیه را به دست آورد."
1276
- },
1277
- "grok-beta": {
1278
- "description": "عملکردی معادل Grok 2 دارد، اما با کارایی، سرعت و قابلیت‌های بالاتر."
1279
- },
1280
- "grok-vision-beta": {
1281
- "description": "جدیدترین مدل درک تصویر که می‌تواند انواع مختلف اطلاعات بصری از جمله اسناد، نمودارها، اسکرین‌شات‌ها و عکس‌ها را پردازش کند."
1292
+ "grok-3-mini-fast": {
1293
+ "description": "مدل سبک‌وزن که قبل از پاسخگویی تفکر می‌کند. سریع و هوشمند اجرا می‌شود، مناسب برای وظایف منطقی که نیاز به دانش عمیق حوزه ندارند و می‌تواند مسیر تفکر اصلی را ارائه دهد."
1282
1294
  },
1283
1295
  "gryphe/mythomax-l2-13b": {
1284
1296
  "description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند می‌دهد."
@@ -1322,6 +1334,9 @@
1322
1334
  "hunyuan-t1-latest": {
1323
1335
  "description": "اولین مدل استدلال هیبریدی-ترنسفورمر-مامبا با مقیاس فوق‌العاده بزرگ در صنعت، که توانایی استدلال را گسترش می‌دهد و سرعت رمزگشایی فوق‌العاده‌ای دارد و به طور بیشتری با ترجیحات انسانی هم‌راستا می‌شود."
1324
1336
  },
1337
+ "hunyuan-t1-vision": {
1338
+ "description": "مدل تفکر عمیق چندرسانه‌ای Hunyuan که از زنجیره تفکر بلند بومی چندرسانه‌ای پشتیبانی می‌کند، در پردازش انواع سناریوهای استدلال تصویری مهارت دارد و در مسائل علمی نسبت به مدل تفکر سریع بهبود قابل توجهی دارد."
1339
+ },
1325
1340
  "hunyuan-translation": {
1326
1341
  "description": "از ۱۵ زبان شامل چینی، انگلیسی، ژاپنی، فرانسوی، پرتغالی، اسپانیایی، ترکی، روسی، عربی، کره‌ای، ایتالیایی، آلمانی، ویتنامی، مالایی و اندونزیایی پشتیبانی می‌کند و به طور خودکار با استفاده از مجموعه ارزیابی ترجمه چند صحنه‌ای، امتیاز COMET را ارزیابی می‌کند. در توانایی ترجمه متقابل در بیش از ده زبان رایج، به طور کلی از مدل‌های هم‌مقیاس در بازار برتر است."
1327
1342
  },
@@ -1586,6 +1601,30 @@
1586
1601
  "meta.llama3-8b-instruct-v1:0": {
1587
1602
  "description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها طراحی شده است تا به آن‌ها در ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاه‌های با توان محاسباتی و منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع‌تر بسیار مناسب است."
1588
1603
  },
1604
+ "meta/Llama-3.2-11B-Vision-Instruct": {
1605
+ "description": "توانایی استدلال تصویری برجسته در تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری."
1606
+ },
1607
+ "meta/Llama-3.2-90B-Vision-Instruct": {
1608
+ "description": "توانایی استدلال تصویری پیشرفته برای برنامه‌های عامل درک بصری."
1609
+ },
1610
+ "meta/Llama-3.3-70B-Instruct": {
1611
+ "description": "Llama 3.3 پیشرفته‌ترین مدل زبان بزرگ چندزبانه متن‌باز در سری Llama است که عملکردی مشابه مدل ۴۰۵ میلیارد پارامتری را با هزینه بسیار پایین ارائه می‌دهد. مبتنی بر ساختار ترنسفورمر و با بهبودهای نظارت شده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای افزایش کارایی و ایمنی. نسخه تنظیم شده برای دستورالعمل بهینه شده برای گفتگوهای چندزبانه است و در معیارهای صنعتی متعدد از بسیاری از مدل‌های چت متن‌باز و بسته بهتر عمل می‌کند. تاریخ قطع دانش: دسامبر ۲۰۲۳."
1612
+ },
1613
+ "meta/Meta-Llama-3-70B-Instruct": {
1614
+ "description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجسته‌ای دارد."
1615
+ },
1616
+ "meta/Meta-Llama-3-8B-Instruct": {
1617
+ "description": "یک مدل چندمنظوره با ۸ میلیارد پارامتر که برای وظایف گفتگو و تولید متن بهینه شده است."
1618
+ },
1619
+ "meta/Meta-Llama-3.1-405B-Instruct": {
1620
+ "description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدل‌های چت متن‌باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
1621
+ },
1622
+ "meta/Meta-Llama-3.1-70B-Instruct": {
1623
+ "description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدل‌های چت متن‌باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
1624
+ },
1625
+ "meta/Meta-Llama-3.1-8B-Instruct": {
1626
+ "description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدل‌های چت متن‌باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
1627
+ },
1589
1628
  "meta/llama-3.1-405b-instruct": {
1590
1629
  "description": "مدل LLM پیشرفته که از تولید داده‌های ترکیبی، تقطیر دانش و استدلال پشتیبانی می‌کند و برای ربات‌های چت، برنامه‌نویسی و وظایف خاص مناسب است."
1591
1630
  },
@@ -1610,6 +1649,30 @@
1610
1649
  "meta/llama-3.3-70b-instruct": {
1611
1650
  "description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
1612
1651
  },
1652
+ "microsoft/Phi-3-medium-128k-instruct": {
1653
+ "description": "همان مدل Phi-3-medium با اندازه زمینه بزرگ‌تر، مناسب برای RAG یا تعداد کمی از پرامپت‌ها."
1654
+ },
1655
+ "microsoft/Phi-3-medium-4k-instruct": {
1656
+ "description": "مدلی با ۱۴ میلیارد پارامتر که کیفیت آن از Phi-3-mini بالاتر است و تمرکز بر داده‌های با کیفیت و استدلالی دارد."
1657
+ },
1658
+ "microsoft/Phi-3-mini-128k-instruct": {
1659
+ "description": "همان مدل Phi-3-mini با اندازه زمینه بزرگ‌تر، مناسب برای RAG یا تعداد کمی از پرامپت‌ها."
1660
+ },
1661
+ "microsoft/Phi-3-mini-4k-instruct": {
1662
+ "description": "کوچک‌ترین عضو خانواده Phi-3 که برای کیفیت و تأخیر کم بهینه شده است."
1663
+ },
1664
+ "microsoft/Phi-3-small-128k-instruct": {
1665
+ "description": "همان مدل Phi-3-small با اندازه زمینه بزرگ‌تر، مناسب برای RAG یا تعداد کمی از پرامپت‌ها."
1666
+ },
1667
+ "microsoft/Phi-3-small-8k-instruct": {
1668
+ "description": "مدلی با ۷ میلیارد پارامتر که کیفیت آن از Phi-3-mini بالاتر است و تمرکز بر داده‌های با کیفیت و استدلالی دارد."
1669
+ },
1670
+ "microsoft/Phi-3.5-mini-instruct": {
1671
+ "description": "نسخه به‌روزشده مدل Phi-3-mini."
1672
+ },
1673
+ "microsoft/Phi-3.5-vision-instruct": {
1674
+ "description": "نسخه به‌روزشده مدل Phi-3-vision."
1675
+ },
1613
1676
  "microsoft/WizardLM-2-8x22B": {
1614
1677
  "description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینه‌های گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
1615
1678
  },
@@ -1628,6 +1691,15 @@
1628
1691
  "mistral": {
1629
1692
  "description": "Mistral یک مدل 7B است که توسط Mistral AI منتشر شده و برای نیازهای متنوع پردازش زبان مناسب است."
1630
1693
  },
1694
+ "mistral-ai/Mistral-Large-2411": {
1695
+ "description": "مدل پرچمدار Mistral که برای وظایف پیچیده‌ای که نیاز به توان استدلال در مقیاس بزرگ یا تخصصی بالا دارند (تولید متن ترکیبی، تولید کد، RAG یا عامل‌ها) مناسب است."
1696
+ },
1697
+ "mistral-ai/Mistral-Nemo": {
1698
+ "description": "Mistral Nemo یک مدل زبان پیشرفته (LLM) است که در دسته اندازه خود دارای بهترین توانایی‌های استدلال، دانش جهانی و کدنویسی است."
1699
+ },
1700
+ "mistral-ai/mistral-small-2503": {
1701
+ "description": "Mistral Small برای هر وظیفه مبتنی بر زبان که نیاز به کارایی بالا و تأخیر کم دارد، قابل استفاده است."
1702
+ },
1631
1703
  "mistral-large": {
1632
1704
  "description": "Mixtral Large مدل پرچمدار Mistral است که توانایی تولید کد، ریاضیات و استدلال را ترکیب می‌کند و از پنجره متنی ۱۲۸k پشتیبانی می‌کند."
1633
1705
  },
@@ -1769,6 +1841,9 @@
1769
1841
  "openai/gpt-4o-mini": {
1770
1842
  "description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است."
1771
1843
  },
1844
+ "openai/o1": {
1845
+ "description": "o1 مدل استدلال جدید OpenAI است که از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد، مناسب برای وظایف پیچیده‌ای که نیاز به دانش عمومی گسترده دارند. این مدل دارای زمینه ۲۰۰ هزار توکنی و تاریخ قطع دانش در اکتبر ۲۰۲۳ است."
1846
+ },
1772
1847
  "openai/o1-mini": {
1773
1848
  "description": "o1-mini یک مدل استنتاج سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ می‌باشد."
1774
1849
  },
@@ -259,9 +259,6 @@
259
259
  "enableMaxTokens": {
260
260
  "title": "فعال‌سازی محدودیت پاسخ"
261
261
  },
262
- "enableReasoningEffort": {
263
- "title": "فعال‌سازی تنظیم شدت استدلال"
264
- },
265
262
  "frequencyPenalty": {
266
263
  "desc": "هر چه مقدار بزرگتر باشد، واژگان متنوع‌تر و غنی‌تری استفاده می‌شود؛ هر چه مقدار کوچکتر باشد، واژگان ساده‌تر و عادی‌تر خواهند بود.",
267
264
  "title": "تنوع واژگان"
@@ -281,15 +278,6 @@
281
278
  "desc": "هر چه مقدار بزرگتر باشد، تمایل به استفاده از عبارات مختلف بیشتر می‌شود و از تکرار مفاهیم جلوگیری می‌کند؛ هر چه مقدار کوچکتر باشد، تمایل به استفاده از مفاهیم یا روایت‌های تکراری بیشتر می‌شود و بیان یکدست‌تری خواهد داشت.",
282
279
  "title": "گستردگی بیان"
283
280
  },
284
- "reasoningEffort": {
285
- "desc": "هرچه مقدار بیشتر باشد، توانایی استدلال قوی‌تر است، اما ممکن است زمان پاسخ و مصرف توکن را افزایش دهد",
286
- "options": {
287
- "high": "بالا",
288
- "low": "پایین",
289
- "medium": "متوسط"
290
- },
291
- "title": "شدت استدلال"
292
- },
293
281
  "submit": "به‌روزرسانی تنظیمات مدل",
294
282
  "temperature": {
295
283
  "desc": "هر چه عدد بزرگتر باشد، پاسخ‌ها خلاقانه‌تر و تخیلی‌تر خواهند بود؛ هر چه عدد کوچکتر باشد، پاسخ‌ها دقیق‌تر خواهند بود",
@@ -43,6 +43,9 @@
43
43
  "reasoningBudgetToken": {
44
44
  "title": "Token de consommation de réflexion"
45
45
  },
46
+ "reasoningEffort": {
47
+ "title": "Intensité du raisonnement"
48
+ },
46
49
  "title": "Fonctionnalités d'extension du modèle"
47
50
  },
48
51
  "history": {