@lobehub/chat 1.51.8 → 1.51.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (63) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/modelProvider.json +0 -20
  5. package/locales/ar/models.json +108 -3
  6. package/locales/bg-BG/common.json +1 -1
  7. package/locales/bg-BG/modelProvider.json +0 -20
  8. package/locales/bg-BG/models.json +108 -3
  9. package/locales/de-DE/common.json +1 -1
  10. package/locales/de-DE/modelProvider.json +0 -20
  11. package/locales/de-DE/models.json +108 -3
  12. package/locales/en-US/common.json +1 -1
  13. package/locales/en-US/modelProvider.json +0 -20
  14. package/locales/en-US/models.json +108 -3
  15. package/locales/es-ES/common.json +1 -1
  16. package/locales/es-ES/modelProvider.json +0 -20
  17. package/locales/es-ES/models.json +108 -3
  18. package/locales/fa-IR/common.json +1 -1
  19. package/locales/fa-IR/modelProvider.json +0 -20
  20. package/locales/fa-IR/models.json +108 -3
  21. package/locales/fr-FR/common.json +1 -1
  22. package/locales/fr-FR/modelProvider.json +0 -20
  23. package/locales/fr-FR/models.json +108 -3
  24. package/locales/it-IT/common.json +1 -1
  25. package/locales/it-IT/modelProvider.json +0 -20
  26. package/locales/it-IT/models.json +108 -3
  27. package/locales/ja-JP/common.json +1 -1
  28. package/locales/ja-JP/modelProvider.json +0 -20
  29. package/locales/ja-JP/models.json +108 -3
  30. package/locales/ko-KR/common.json +1 -1
  31. package/locales/ko-KR/modelProvider.json +0 -20
  32. package/locales/ko-KR/models.json +108 -3
  33. package/locales/nl-NL/common.json +1 -1
  34. package/locales/nl-NL/modelProvider.json +0 -20
  35. package/locales/nl-NL/models.json +108 -3
  36. package/locales/pl-PL/common.json +1 -1
  37. package/locales/pl-PL/modelProvider.json +0 -20
  38. package/locales/pl-PL/models.json +108 -3
  39. package/locales/pt-BR/common.json +1 -1
  40. package/locales/pt-BR/modelProvider.json +0 -20
  41. package/locales/pt-BR/models.json +108 -3
  42. package/locales/ru-RU/common.json +1 -1
  43. package/locales/ru-RU/modelProvider.json +0 -20
  44. package/locales/ru-RU/models.json +108 -3
  45. package/locales/tr-TR/common.json +1 -1
  46. package/locales/tr-TR/modelProvider.json +0 -20
  47. package/locales/tr-TR/models.json +108 -3
  48. package/locales/vi-VN/common.json +1 -1
  49. package/locales/vi-VN/modelProvider.json +0 -20
  50. package/locales/vi-VN/models.json +108 -3
  51. package/locales/zh-CN/common.json +1 -1
  52. package/locales/zh-CN/modelProvider.json +0 -20
  53. package/locales/zh-CN/models.json +113 -8
  54. package/locales/zh-TW/common.json +1 -1
  55. package/locales/zh-TW/modelProvider.json +0 -20
  56. package/locales/zh-TW/models.json +108 -3
  57. package/package.json +1 -1
  58. package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
  59. package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
  60. package/src/app/[variants]/(main)/chat/layout.ts +0 -2
  61. package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +2 -0
  62. package/src/features/User/PlanTag.tsx +2 -2
  63. package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro es un modelo avanzado de procesamiento de lenguaje natural lanzado por la empresa 360, con una excelente capacidad de generación y comprensión de textos, destacándose especialmente en la generación y creación de contenido, capaz de manejar tareas complejas de conversión de lenguaje y representación de roles."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1 utiliza búsqueda en árbol para construir cadenas de pensamiento e introduce un mecanismo de reflexión, entrenando el modelo con aprendizaje por refuerzo, lo que le confiere la capacidad de auto-reflexión y corrección de errores."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-Math-1.5B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-14B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "La serie DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto, superando el nivel de OpenAI-o1-mini."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "El modelo de destilación DeepSeek-R1 basado en Qwen2.5-Math-7B optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite presenta una velocidad de respuesta extrema y una mejor relación calidad-precio, ofreciendo opciones más flexibles para diferentes escenarios de clientes. Admite inferencia y ajuste fino con ventanas de contexto de 128k."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Modelo de lenguaje de gran escala de última generación desarrollado por Baidu, con un rendimiento sobresaliente en una variedad de escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Modelo de lenguaje a gran escala desarrollado por Baidu, con un rendimiento general excepcional, ampliamente aplicable a escenas complejas en diversos campos; soporta la conexión automática al complemento de búsqueda de Baidu, garantizando la actualidad de la información de las preguntas y respuestas. En comparación con ERNIE 4.0, tiene un rendimiento superior."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 es parte de la familia de modelos de lenguaje a gran escala multilingües desarrollados por Meta, que incluye variantes preentrenadas y de ajuste fino por instrucciones con tamaños de parámetros de 8B, 70B y 405B. Este modelo de 8B ha sido optimizado para escenarios de diálogo multilingüe y ha destacado en múltiples pruebas de referencia de la industria. El entrenamiento del modelo utilizó más de 150 billones de tokens de datos públicos y empleó técnicas como ajuste fino supervisado y aprendizaje por refuerzo con retroalimentación humana para mejorar la utilidad y seguridad del modelo. Llama 3.1 admite generación de texto y generación de código, con una fecha límite de conocimiento hasta diciembre de 2023."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview es un modelo de investigación desarrollado por el equipo de Qwen, enfocado en la capacidad de razonamiento visual, que tiene ventajas únicas en la comprensión de escenas complejas y en la resolución de problemas matemáticos relacionados con la visión."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B es un modelo de destilación desarrollado a partir de Llama-3.1-8B. Este modelo se ajustó utilizando muestras generadas por DeepSeek-R1, mostrando una excelente capacidad de inferencia. Ha tenido un buen desempeño en múltiples pruebas de referencia, alcanzando una precisión del 89.1% en MATH-500, una tasa de aprobación del 50.4% en AIME 2024, y una puntuación de 1205 en CodeForces, demostrando una fuerte capacidad matemática y de programación como modelo de 8B."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "El modelo de destilación DeepSeek-R1 optimiza el rendimiento de inferencia mediante aprendizaje por refuerzo y datos de arranque en frío, actualizando el estándar de múltiples tareas en modelos de código abierto."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-32B. Este modelo se ajustó utilizando 800,000 muestras seleccionadas generadas por DeepSeek-R1, mostrando un rendimiento excepcional en múltiples campos como matemáticas, programación e inferencia. Ha obtenido excelentes resultados en varias pruebas de referencia, alcanzando una precisión del 94.3% en MATH-500, demostrando una fuerte capacidad de razonamiento matemático."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-Math-7B. Este modelo se ajustó utilizando 800,000 muestras seleccionadas generadas por DeepSeek-R1, mostrando un rendimiento excepcional en múltiples campos como matemáticas, programación e inferencia. Ha obtenido excelentes resultados en varias pruebas de referencia, alcanzando una precisión del 92.8% en MATH-500, una tasa de aprobación del 55.5% en AIME 2024, y una puntuación de 1189 en CodeForces, demostrando una fuerte capacidad matemática y de programación como modelo de 7B."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 combina las excelentes características de versiones anteriores, mejorando la capacidad general y de codificación."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1, el modelo más grande e inteligente del conjunto DeepSeek, ha sido destilado en la arquitectura Llama 70B. Basado en pruebas de referencia y evaluaciones humanas, este modelo es más inteligente que el Llama 70B original, destacándose especialmente en tareas que requieren precisión matemática y factual."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "Modelo de inferencia lanzado por DeepSeek. Antes de proporcionar la respuesta final, el modelo genera primero una cadena de pensamiento para mejorar la precisión de la respuesta final."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B es el modelo de código de diseño de DeepSeek, que ofrece una potente capacidad de generación de código."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 es un modelo MoE desarrollado por Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., que ha destacado en múltiples evaluaciones, ocupando el primer lugar en la lista de modelos de código abierto. En comparación con el modelo V2.5, la velocidad de generación se ha incrementado tres veces, brindando a los usuarios una experiencia de uso más rápida y fluida."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, cubre una vasta cantidad de corpus en chino e inglés, con potentes capacidades generales que satisfacen la mayoría de los requisitos de preguntas y respuestas en diálogos, generación creativa y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, ha logrado una actualización completa de capacidades en comparación con ERNIE 3.5, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, ha logrado una actualización completa de capacidades en comparación con ERNIE 3.5, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Modelo de lenguaje grande de escenario vertical desarrollado internamente por Baidu, adecuado para aplicaciones como NPC de juegos, diálogos de servicio al cliente y juegos de rol de diálogos, con un estilo de personaje más distintivo y consistente, y una mayor capacidad de seguimiento de instrucciones y rendimiento de inferencia."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Modelo de lenguaje grande de escenario vertical desarrollado internamente por Baidu, adecuado para aplicaciones como NPC de juegos, diálogos de servicio al cliente y juegos de rol de diálogos, con un estilo de personaje más distintivo y consistente, y una mayor capacidad de seguimiento de instrucciones y rendimiento de inferencia."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite es un modelo de lenguaje grande ligero desarrollado internamente por Baidu, que combina un excelente rendimiento del modelo con una buena capacidad de inferencia, adecuado para su uso en tarjetas de aceleración de IA de bajo consumo."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Modelo de lenguaje grande ligero desarrollado internamente por Baidu, que combina un excelente rendimiento del modelo con una buena capacidad de inferencia, con un rendimiento superior al de ERNIE Lite, adecuado para su uso en tarjetas de aceleración de IA de bajo consumo."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Modelo de lenguaje grande general desarrollado internamente por Baidu, con ventajas notables en la capacidad de continuar novelas, también aplicable en escenarios de cortometrajes y películas."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "El modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, lanzado en 2024, tiene capacidades generales excepcionales, adecuado como modelo base para ajustes finos, manejando mejor problemas específicos de escenarios, y con un excelente rendimiento de inferencia."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "El modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, lanzado en 2024, tiene capacidades generales excepcionales, con un rendimiento superior al de ERNIE Speed, adecuado como modelo base para ajustes finos, manejando mejor problemas específicos de escenarios, y con un excelente rendimiento de inferencia."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny es un modelo de lenguaje grande de alto rendimiento desarrollado internamente por Baidu, con los costos de implementación y ajuste más bajos entre los modelos de la serie Wenxin."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Ajuste) ofrece un rendimiento estable y ajustable, siendo una opción ideal para soluciones de tareas complejas."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, lidera el mercado de modelos de código abierto de tamaño similar. Apunta por defecto a nuestra serie de modelos InternLM3 más reciente."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 es el modelo de lenguaje de código abierto multilingüe más avanzado de la serie Llama, que ofrece un rendimiento comparable al modelo de 405B a un costo muy bajo. Basado en la estructura Transformer, y mejorado en utilidad y seguridad a través de ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF). Su versión ajustada por instrucciones está optimizada para diálogos multilingües, superando a muchos modelos de chat de código abierto y cerrado en múltiples benchmarks de la industria. La fecha de corte de conocimiento es diciembre de 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "El modelo de lenguaje grande multilingüe Meta Llama 3.3 (LLM) es un modelo generativo preentrenado y ajustado por instrucciones de 70B (entrada de texto/salida de texto). El modelo de texto puro ajustado por instrucciones de Llama 3.3 está optimizado para casos de uso de diálogo multilingüe y supera a muchos modelos de chat de código abierto y cerrados en benchmarks de la industria."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Se destaca en tareas como descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Modelo de lenguaje visual a ultra gran escala Tongyi Qianwen. En comparación con la versión mejorada, mejora aún más la capacidad de razonamiento visual y de seguimiento de instrucciones, ofreciendo un nivel más alto de percepción y cognición visual."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "Qwen OCR es un modelo especializado en extracción de texto, enfocado en la capacidad de extraer texto de imágenes de documentos, tablas, exámenes, escritura a mano, entre otros. Puede reconocer múltiples idiomas, actualmente soporta: chino, inglés, francés, japonés, coreano, alemán, ruso, italiano, vietnamita y árabe."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Versión mejorada del modelo de lenguaje visual a gran escala Tongyi Qianwen. Mejora significativamente la capacidad de reconocimiento de detalles y de texto, soportando imágenes con resolución de más de un millón de píxeles y proporciones de ancho y alto arbitrarias."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "El modelo de 14B de Tongyi Qwen 2.5, de código abierto."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "El modelo de 72B de Qwen2.5 es de código abierto."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "El modelo de 32B de Tongyi Qwen 2.5, de código abierto."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "Mejora general en seguimiento de instrucciones, matemáticas, resolución de problemas y código, con capacidades de reconocimiento de objetos mejoradas, soporta formatos diversos para localizar elementos visuales con precisión, y puede entender archivos de video largos (hasta 10 minutos) y localizar eventos en segundos, comprendiendo la secuencia y velocidad del tiempo, soportando el control de agentes en OS o móviles, con fuerte capacidad de extracción de información clave y salida en formato Json. Esta versión es la de 72B, la más potente de la serie."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "Mejora general en seguimiento de instrucciones, matemáticas, resolución de problemas y código, con capacidades de reconocimiento de objetos mejoradas, soporta formatos diversos para localizar elementos visuales con precisión, y puede entender archivos de video largos (hasta 10 minutos) y localizar eventos en segundos, comprendiendo la secuencia y velocidad del tiempo, soportando el control de agentes en OS o móviles, con fuerte capacidad de extracción de información clave y salida en formato Json. Esta versión es la de 72B, la más potente de la serie."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 es la nueva generación de modelos de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "کاربر ناشناس",
287
287
  "billing": "مدیریت صورتحساب",
288
288
  "cloud": "تجربه {{name}}",
289
+ "community": "نسخه جامعه",
289
290
  "data": "ذخیره‌سازی داده",
290
291
  "defaultNickname": "کاربر نسخه جامعه",
291
292
  "discord": "پشتیبانی جامعه",
@@ -295,7 +296,6 @@
295
296
  "help": "مرکز راهنما",
296
297
  "moveGuide": "دکمه تنظیمات به اینجا منتقل شد",
297
298
  "plans": "طرح‌های اشتراک",
298
- "preview": "نسخه پیش‌نمایش",
299
299
  "profile": "مدیریت حساب",
300
300
  "setting": "تنظیمات برنامه",
301
301
  "usages": "آمار استفاده"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "به‌روزرسانی پیکربندی پایه ارائه‌دهنده",
295
295
  "updateSuccess": "به‌روزرسانی با موفقیت انجام شد"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "کلید دسترسی Qianfan پلتفرم بایدو را وارد کنید",
300
- "placeholder": "کلید دسترسی Qianfan",
301
- "title": "کلید دسترسی"
302
- },
303
- "checker": {
304
- "desc": "تست کنید که آیا AccessKey / SecretAccess به درستی وارد شده است"
305
- },
306
- "secretKey": {
307
- "desc": "کلید مخفی Qianfan پلتفرم بایدو را وارد کنید",
308
- "placeholder": "کلید مخفی Qianfan",
309
- "title": "کلید مخفی"
310
- },
311
- "unlock": {
312
- "customRegion": "منطقه خدمات سفارشی",
313
- "description": "کلید دسترسی / کلید مخفی خود را وارد کنید تا مکالمه را شروع کنید. برنامه تنظیمات احراز هویت شما را ذخیره نخواهد کرد",
314
- "title": "استفاده از اطلاعات احراز هویت سفارشی Wenxin Yiyan"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI صفر و یک همه چیز"
319
299
  },
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro مدل پیشرفته پردازش زبان طبیعی است که توسط شرکت 360 ارائه شده است. این مدل دارای توانایی‌های برجسته‌ای در تولید و درک متن است و به ویژه در زمینه تولید و خلاقیت عملکرد فوق‌العاده‌ای دارد. همچنین قادر به انجام وظایف پیچیده تبدیل زبان و ایفای نقش می‌باشد."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "مدل 360zhinao2-o1 با استفاده از جستجوی درختی زنجیره تفکر را ایجاد کرده و مکانیزم بازتاب را معرفی کرده است و با استفاده از یادگیری تقویتی آموزش دیده است، این مدل توانایی خودبازتابی و اصلاح خطا را دارد."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-1.5B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-14B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "سری DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده و از سطح OpenAI-o1-mini فراتر رفته است."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "مدل تقطیر DeepSeek-R1 مبتنی بر Qwen2.5-Math-7B است که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite دارای سرعت پاسخ‌دهی بسیار بالا و قیمت مناسب‌تر است و برای سناریوهای مختلف مشتریان گزینه‌های منعطف‌تری ارائه می‌دهد. این مدل از استنتاج و تنظیم 128k پنجره متنی پشتیبانی می‌کند."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل توانایی‌های مدل را به ارمغان آورده و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به‌روز بماند."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "مدل زبان بزرگ و پرچمدار خودساخته بایدو که عملکردی عالی دارد و به طور گسترده‌ای در سناریوهای پیچیده در زمینه‌های مختلف کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند و به روز بودن اطلاعات پرسش و پاسخ را تضمین می‌کند. نسبت به ERNIE 4.0 در عملکرد برتر است."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "مدل زبان بزرگ و پیشرفته‌ای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو به‌طور خودکار پشتیبانی می‌کند تا اطلاعات به‌روز را در پاسخ‌ها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 یکی از خانواده‌های مدل‌های زبانی بزرگ چند زبانه است که توسط Meta توسعه یافته و شامل واریانت‌های پیش‌آموزش شده و تنظیم دقیق دستوری با اندازه‌های پارامتر 8B، 70B و 405B است. این مدل 8B به طور خاص برای سناریوهای گفتگوی چند زبانه بهینه‌سازی شده و در چندین آزمون معیار صنعتی عملکرد عالی دارد. آموزش مدل با استفاده از بیش از 15 تریلیون توکن داده‌های عمومی انجام شده و از تکنیک‌های تنظیم دقیق نظارتی و یادگیری تقویتی با بازخورد انسانی برای افزایش مفید بودن و ایمنی مدل استفاده شده است. Llama 3.1 از تولید متن و تولید کد پشتیبانی می‌کند و تاریخ قطع دانش آن دسامبر 2023 است."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview یک مدل تحقیقاتی است که توسط تیم Qwen توسعه یافته و بر روی توانایی‌های استنتاج بصری تمرکز دارد و در درک صحنه‌های پیچیده و حل مسائل ریاضی مرتبط با بصری دارای مزیت‌های منحصر به فردی است."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B مدلی است که بر اساس Llama-3.1-8B توسعه یافته است. این مدل با استفاده از نمونه‌های تولید شده توسط DeepSeek-R1 برای تنظیم دقیق، توانایی استدلال عالی را نشان می‌دهد. در چندین آزمون معیار عملکرد خوبی داشته است، به طوری که در MATH-500 به دقت 89.1% و در AIME 2024 به نرخ قبولی 50.4% دست یافته و در CodeForces امتیاز 1205 را کسب کرده است و به عنوان مدلی با مقیاس 8B توانایی‌های ریاضی و برنامه‌نویسی قوی را نشان می‌دهد."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "مدل تقطیر DeepSeek-R1 که با استفاده از یادگیری تقویتی و داده‌های شروع سرد عملکرد استدلال را بهینه‌سازی کرده و مدل‌های متن‌باز را به روز کرده است."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B مدلی است که از تقطیر دانش بر اساس Qwen2.5-32B به دست آمده است. این مدل با استفاده از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای تنظیم دقیق، در زمینه‌های مختلفی از جمله ریاضیات، برنامه‌نویسی و استدلال عملکرد برجسته‌ای را نشان می‌دهد. در چندین آزمون معیار از جمله AIME 2024، MATH-500 و GPQA Diamond نتایج عالی کسب کرده است، به طوری که در MATH-500 به دقت 94.3% دست یافته و توانایی استدلال ریاضی قوی را نشان می‌دهد."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که از تقطیر دانش بر اساس Qwen2.5-Math-7B به دست آمده است. این مدل با استفاده از 800000 نمونه منتخب تولید شده توسط DeepSeek-R1 برای تنظیم دقیق، توانایی استدلال عالی را نشان می‌دهد. در چندین آزمون معیار عملکرد برجسته‌ای داشته است، به طوری که در MATH-500 به دقت 92.8% و در AIME 2024 به نرخ قبولی 55.5% دست یافته و در CodeForces امتیاز 1189 را کسب کرده است و به عنوان مدلی با مقیاس 7B توانایی‌های ریاضی و برنامه‌نویسی قوی را نشان می‌دهد."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 ویژگی‌های برجسته نسخه‌های قبلی را گرد هم آورده و توانایی‌های عمومی و کدنویسی را تقویت کرده است."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به معماری Llama 70B تقطیر شده است. بر اساس آزمون‌های معیار و ارزیابی‌های انسانی، این مدل از Llama 70B اصلی هوشمندتر است، به ویژه در وظایفی که نیاز به دقت ریاضی و واقعی دارند."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "مدل استدلالی ارائه شده توسط DeepSeek. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B مدل طراحی کد DeepSeek است که توانایی‌های قدرتمندی در تولید کد ارائه می‌دهد."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 مدل MoE توسعه یافته توسط شرکت تحقیقاتی فناوری هوش مصنوعی DeepSeek در هانگژو است که در چندین ارزیابی عملکرد برجسته‌ای دارد و در لیست‌های اصلی در صدر مدل‌های متن‌باز قرار دارد. V3 نسبت به مدل V2.5 سرعت تولید را 3 برابر افزایش داده و تجربه کاربری سریع‌تر و روان‌تری را برای کاربران فراهم می‌کند."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa یک مدل روان‌شناختی است که دارای توانایی مشاوره حرفه‌ای بوده و به کاربران در درک مسائل احساسی کمک می‌کند."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "مدل زبان بزرگ پرچمدار خود توسعه یافته توسط بایدو، که شامل حجم وسیعی از متون چینی و انگلیسی است و دارای توانایی‌های عمومی قوی است که می‌تواند نیازهای اکثر موارد پرسش و پاسخ، تولید خلاقانه و کاربردهای افزونه را برآورده کند؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 به‌روزرسانی‌های جامع‌تری در توانایی‌های مدل داشته و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که نسبت به ERNIE 3.5 به‌روزرسانی‌های جامع‌تری در توانایی‌های مدل داشته و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو است که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "مدل زبان بزرگ سبک خود توسعه یافته توسط بایدو که تعادل خوبی بین عملکرد مدل و عملکرد استدلال دارد و عملکرد بهتری نسبت به ERNIE Lite دارد و برای استفاده در کارت‌های تسریع AI با توان محاسباتی پایین مناسب است."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "مدل زبان بزرگ عمومی خود توسعه یافته توسط بایدو که در توانایی ادامه نوشتن رمان مزیت قابل توجهی دارد و همچنین می‌تواند در صحنه‌های کوتاه‌نمایش و فیلم‌ها استفاده شود."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "مدل زبان بزرگ با عملکرد بالا که به تازگی در سال 2024 توسط بایدو منتشر شده است، دارای توانایی‌های عمومی عالی است و برای تنظیم دقیق به عنوان مدل پایه مناسب است و می‌تواند به خوبی مسائل خاص را مدیریت کند و همچنین دارای عملکرد استدلال بسیار خوبی است."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "مدل زبان بزرگ با عملکرد بالا که به تازگی در سال 2024 توسط بایدو منتشر شده است، دارای توانایی‌های عمومی عالی است و عملکرد بهتری نسبت به ERNIE Speed دارد و برای تنظیم دقیق به عنوان مدل پایه مناسب است و می‌تواند به خوبی مسائل خاص را مدیریت کند و همچنین دارای عملکرد استدلال بسیار خوبی است."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny مدل زبان بزرگ با عملکرد فوق‌العاده بالا است که هزینه‌های استقرار و تنظیم آن در بین مدل‌های سری Wenxin کمترین است."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (تنظیم) عملکردی پایدار و قابل تنظیم ارائه می‌دهد و انتخابی ایده‌آل برای راه‌حل‌های وظایف پیچیده است."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی می‌کند و توانایی‌های قوی‌تری در پیروی از دستورات و فراخوانی ابزارها دارد."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "سری جدیدترین مدل‌های ما با عملکرد استدلال برجسته، پیشتاز مدل‌های متن‌باز در همان سطح هستند. به طور پیش‌فرض به جدیدترین مدل‌های سری InternLM3 ما اشاره دارد."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و می‌تواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 پیشرفته‌ترین مدل زبان بزرگ چند زبانه متن باز از سری Llama، با هزینه بسیار کم، تجربه‌ای مشابه با عملکرد مدل 405B. بر پایه ساختار Transformer و با بهبود کارایی و ایمنی از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF). نسخه بهینه‌سازی شده برای دستورالعمل‌ها به طور خاص برای مکالمات چند زبانه بهینه‌سازی شده و در چندین معیار صنعتی بهتر از بسیاری از مدل‌های چت متن باز و بسته عمل می‌کند. تاریخ قطع دانش تا دسامبر 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "مدل بزرگ زبان چند زبانه Meta Llama 3.3 (LLM) یک مدل تولیدی پیش‌آموزش و تنظیم دستوری در 70B (ورودی متن/خروجی متن) است. مدل تنظیم دستوری Llama 3.3 به طور خاص برای موارد استفاده مکالمه چند زبانه بهینه‌سازی شده و در معیارهای صنعتی رایج از بسیاری از مدل‌های چت متن‌باز و بسته موجود بهتر عمل می‌کند."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 برای انجام وظایفی که ترکیبی از داده‌های بصری و متنی هستند طراحی شده است. این مدل در وظایفی مانند توصیف تصویر و پرسش و پاسخ بصری عملکرد بسیار خوبی دارد و فاصله بین تولید زبان و استدلال بصری را پر می‌کند."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "مدل زبان بصری فوق‌العاده بزرگ Qwen-VL. در مقایسه با نسخه تقویت‌شده، توانایی استدلال بصری و پیروی از دستورات را دوباره بهبود می‌بخشد و سطح بالاتری از ادراک و شناخت بصری را ارائه می‌دهد."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "مدل OCR Qwen برای استخراج متن، بر روی توانایی استخراج متن از انواع تصاویر مانند اسناد، جداول، سوالات و متن‌های دست‌نویس تمرکز دارد. این مدل قادر به شناسایی انواع مختلف متون است و زبان‌های پشتیبانی شده شامل: چینی، انگلیسی، فرانسوی، ژاپنی، کره‌ای، آلمانی، روسی، ایتالیایی، ویتنامی و عربی می‌باشد."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "نسخه تقویت‌شده مدل زبان تصویری بزرگ تونگی چیان‌ون. بهبود قابل توجه در توانایی تشخیص جزئیات و شناسایی متن، پشتیبانی از وضوح بیش از یک میلیون پیکسل و تصاویر با هر نسبت طول به عرض."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "مدل 14B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "مدل 72B مقیاس Qwen2.5 که به صورت متن‌باز ارائه شده است."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "مدل 32B مقیاس Qwen 2.5 که به صورت منبع باز ارائه شده است."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمت‌های مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایل‌های ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عامل‌های OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قوی‌ترین نسخه در این سری است."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "پیروی از دستورات، ریاضیات، حل مسائل، بهبود کلی کد، بهبود توانایی شناسایی همه چیز، پشتیبانی از فرمت‌های مختلف برای شناسایی دقیق عناصر بصری، پشتیبانی از درک فایل‌های ویدیویی طولانی (حداکثر 10 دقیقه) و شناسایی لحظات رویداد در سطح ثانیه، توانایی درک زمان و سرعت، بر اساس توانایی تجزیه و تحلیل و شناسایی، پشتیبانی از کنترل عامل‌های OS یا Mobile، توانایی استخراج اطلاعات کلیدی و خروجی به فرمت Json قوی، این نسخه 72B است و قوی‌ترین نسخه در این سری است."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 نسل جدید مدل زبانی مقیاس بزرگ Alibaba است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی می‌کند."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "Utilisateur anonyme",
287
287
  "billing": "Gestion de la facturation",
288
288
  "cloud": "Découvrir {{name}}",
289
+ "community": "Version communautaire",
289
290
  "data": "Stockage des données",
290
291
  "defaultNickname": "Utilisateur de la version communautaire",
291
292
  "discord": "Support de la communauté",
@@ -295,7 +296,6 @@
295
296
  "help": "Centre d'aide",
296
297
  "moveGuide": "Le bouton de configuration a été déplacé ici",
297
298
  "plans": "Forfaits d'abonnement",
298
- "preview": "Aperçu",
299
299
  "profile": "Gestion du compte",
300
300
  "setting": "Paramètres de l'application",
301
301
  "usages": "Statistiques d'utilisation"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "Mettre à jour la configuration de base du fournisseur",
295
295
  "updateSuccess": "Mise à jour réussie"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "Entrez la clé d'accès de la plateforme Qianfan de Baidu",
300
- "placeholder": "Clé d'accès Qianfan",
301
- "title": "Clé d'accès"
302
- },
303
- "checker": {
304
- "desc": "Vérifiez si la clé d'accès / SecretAccess est correctement remplie"
305
- },
306
- "secretKey": {
307
- "desc": "Entrez la clé secrète de la plateforme Qianfan de Baidu",
308
- "placeholder": "Clé secrète Qianfan",
309
- "title": "Clé secrète"
310
- },
311
- "unlock": {
312
- "customRegion": "Région de service personnalisée",
313
- "description": "Entrez votre AccessKey / SecretKey pour commencer la session. L'application ne conservera pas votre configuration d'authentification",
314
- "title": "Utiliser les informations d'authentification personnalisées de Wenxin Yiyan"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI Zéro Un Tout"
319
299
  },