@lobehub/chat 1.22.14 → 1.22.16

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, con un rendimiento excepcional en efectos generales, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "Modelo de lenguaje a gran escala desarrollado por Baidu, con un rendimiento general excepcional, ampliamente aplicable a escenas complejas en diversos campos; soporta la conexión automática al complemento de búsqueda de Baidu, garantizando la actualidad de la información de las preguntas y respuestas. En comparación con ERNIE 4.0, tiene un rendimiento superior."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, con un rendimiento excepcional en efectos generales, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) ofrece salidas de lenguaje optimizadas y diversas posibilidades de aplicación."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Actualización del modelo Phi-3-mini."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2 ha demostrado un rendimiento sobresaliente en diversas tareas de lenguaje visual, incluidas la comprensión de documentos y gráficos, comprensión de texto en escenas, OCR, resolución de problemas científicos y matemáticos."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2 ha demostrado un rendimiento sobresaliente en diversas tareas de lenguaje visual, incluidas la comprensión de documentos y gráficos, comprensión de texto en escenas, OCR, resolución de problemas científicos y matemáticos."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "El mismo modelo Phi-3-medium, pero con un tamaño de contexto más grande para RAG o indicaciones de pocos disparos."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "Un modelo de 7B parámetros, que demuestra mejor calidad que Phi-3-mini, con un enfoque en datos densos de razonamiento de alta calidad."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Versión actualizada del modelo Phi-3-mini."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Versión actualizada del modelo Phi-3-vision."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K está configurado con una capacidad de procesamiento de contexto extremadamente grande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para contenido largo que requiere análisis completo y manejo de relaciones lógicas a largo plazo, proporcionando una lógica fluida y consistente y un soporte diverso de citas en comunicaciones de texto complejas."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2 ha demostrado un rendimiento sobresaliente en diversas tareas de lenguaje visual, incluidas la comprensión de documentos y gráficos, comprensión de texto en escenas, OCR, resolución de problemas científicos y matemáticos."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL es la última iteración del modelo Qwen-VL, alcanzando un rendimiento de vanguardia en pruebas de comprensión visual."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Como versión beta de Qwen2, Qwen1.5 utiliza datos a gran escala para lograr funciones de conversación más precisas."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL es la última iteración del modelo Qwen-VL, alcanzando un rendimiento de vanguardia en pruebas de comprensión visual."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, diseñada para optimizar el procesamiento de tareas de instrucción."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, diseñada para optimizar el procesamiento de tareas de instrucción."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, con una mayor capacidad de comprensión y generación."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5 es una nueva serie de grandes modelos de lenguaje, con capacidades de comprensión y generación más fuertes."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 es una nueva serie de grandes modelos de lenguaje, diseñada para optimizar el manejo de tareas instructivas."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 es una nueva serie de modelos de lenguaje a gran escala, diseñada para optimizar el procesamiento de tareas de instrucción."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 es una nueva serie de grandes modelos de lenguaje, diseñada para optimizar el manejo de tareas instructivas."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder se centra en la escritura de código."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b es un modelo de lenguaje visual que puede recibir entradas de imagen y texto simultáneamente, entrenado con datos de alta calidad, adecuado para tareas multimodales."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "El modelo de instrucciones Gemma 2 9B, basado en la tecnología anterior de Google, es adecuado para responder preguntas, resumir y razonar en diversas tareas de generación de texto."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "El modelo de instrucciones Llama 3 70B está optimizado para diálogos multilingües y comprensión del lenguaje natural, superando el rendimiento de la mayoría de los modelos competidores."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "El modelo de instrucciones Llama 3.1 8B está optimizado para diálogos multilingües, capaz de superar la mayoría de los modelos de código abierto y cerrado en estándares de la industria."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Modelo de razonamiento de imágenes de 11B parámetros ajustado por Meta. Este modelo está optimizado para el reconocimiento visual, razonamiento de imágenes, descripción de imágenes y respuestas a preguntas generales sobre imágenes. Puede entender datos visuales, como gráficos y diagramas, y cerrar la brecha entre la visión y el lenguaje generando descripciones textuales de los detalles de las imágenes."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "El modelo de instrucciones Llama 3.2 1B es un modelo multilingüe ligero lanzado por Meta. Está diseñado para mejorar la eficiencia, ofreciendo mejoras significativas en latencia y costos en comparación con modelos más grandes. Ejemplos de uso de este modelo incluyen recuperación y resumen."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "El modelo de instrucciones Llama 3.2 3B es un modelo multilingüe ligero lanzado por Meta. Está diseñado para mejorar la eficiencia, ofreciendo mejoras significativas en latencia y costos en comparación con modelos más grandes. Ejemplos de uso de este modelo incluyen consultas, reescritura de indicaciones y asistencia en la escritura."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Modelo de razonamiento de imágenes de 90B parámetros ajustado por Meta. Este modelo está optimizado para el reconocimiento visual, razonamiento de imágenes, descripción de imágenes y respuestas a preguntas generales sobre imágenes. Puede entender datos visuales, como gráficos y diagramas, y cerrar la brecha entre la visión y el lenguaje generando descripciones textuales de los detalles de las imágenes."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "El modelo de instrucciones Mixtral MoE 8x22B, con parámetros a gran escala y arquitectura de múltiples expertos, soporta de manera integral el procesamiento eficiente de tareas complejas."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "El modelo de instrucciones Phi 3 Vision es un modelo multimodal ligero, capaz de manejar información visual y textual compleja, con una fuerte capacidad de razonamiento."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 es una serie de modelos de lenguaje solo decodificadores desarrollados por el equipo Qwen de Alibaba Cloud. Estos modelos ofrecen diferentes tamaños, incluidos 0.5B, 1.5B, 3B, 7B, 14B, 32B y 72B, y tienen variantes base y de instrucciones."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "El modelo StarCoder 15.5B soporta tareas de programación avanzadas, con capacidades multilingües mejoradas, adecuado para la generación y comprensión de código complejo."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "Un modelo multilingüe de 52B parámetros (12B activos), que ofrece una ventana de contexto larga de 256K, llamada a funciones, salida estructurada y generación fundamentada."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "Un modelo LLM basado en Mamba de calidad de producción para lograr un rendimiento, calidad y eficiencia de costos de primera clase."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "El modelo Llama 3.1 Sonar Small Online, con 8B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, diseñado para chat en línea, capaz de manejar eficientemente diversas interacciones textuales."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "Capacidad excepcional de razonamiento visual en imágenes de alta resolución, adecuada para aplicaciones de comprensión visual."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "Capacidad avanzada de razonamiento de imágenes para aplicaciones de agentes de comprensión visual."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) ofrece una excelente capacidad de procesamiento de lenguaje y una experiencia de interacción sobresaliente."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "Uno de los mejores modelos de conversación."
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 ofrece excelentes capacidades de procesamiento del lenguaje y una experiencia de interacción excepcional."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B) es un modelo de chat potente, que soporta necesidades de conversación complejas."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B) ofrece soporte multilingüe, abarcando un amplio conocimiento en diversos campos."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Se destaca en tareas como descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Se destaca en tareas como descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Se destaca en tareas como descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Se destaca en tareas como descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite es ideal para entornos que requieren alto rendimiento y baja latencia."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V es la nueva generación de modelos multimodales lanzada por OpenBMB, que cuenta con una excelente capacidad de reconocimiento OCR y comprensión multimodal, soportando una amplia gama de escenarios de aplicación."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B es el modelo de borde de primer nivel mundial de Mistral."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B es el modelo de borde con la mejor relación calidad-precio de Mistral."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral es un modelo de 7B lanzado por Mistral AI, adecuado para necesidades de procesamiento de lenguaje variables."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large es el modelo insignia de Mistral, combinando capacidades de generación de código, matemáticas y razonamiento, soportando una ventana de contexto de 128k."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) es un modelo de lenguaje grande (LLM) avanzado con capacidades de razonamiento, conocimiento y codificación de última generación."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large es el modelo insignia, especializado en tareas multilingües, razonamiento complejo y generación de código, ideal para aplicaciones de alta gama."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 ofrece una capacidad de cálculo eficiente y comprensión del lenguaje natural, adecuado para una amplia gama de aplicaciones."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B es un modelo compacto pero de alto rendimiento, ideal para tareas simples como clasificación y generación de texto, con buenas capacidades de razonamiento."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) es un modelo de lenguaje de gran tamaño, que soporta demandas de procesamiento extremadamente altas."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B es un modelo de expertos dispersos preentrenado, utilizado para tareas de texto de uso general."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B es un modelo de expertos dispersos que utiliza múltiples parámetros para aumentar la velocidad de razonamiento, adecuado para tareas de generación de múltiples idiomas y códigos."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct es un modelo de estándar industrial de alto rendimiento, optimizado para velocidad y soporte de contexto largo."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B es una versión mejorada de Nous Hermes 2, que incluye los conjuntos de datos más recientes desarrollados internamente."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B es un modelo de lenguaje de gran tamaño personalizado por NVIDIA, diseñado para aumentar el grado de ayuda que las respuestas generadas por LLM ofrecen a las consultas de los usuarios."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "Excelente relación calidad-precio y rendimiento excepcional. Ajuste de alta precisión basado en el rendimiento, velocidad de razonamiento y costo."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "Último modelo de alto rendimiento que garantiza una salida de alta calidad y mejora significativamente la velocidad de razonamiento."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "Versión ligera, se recomienda usar yi-lightning."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "Modelo de tamaño mediano, ajustado y equilibrado, con una buena relación calidad-precio. Optimización profunda de la capacidad de seguimiento de instrucciones."
993
1062
  },
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "Modèle linguistique ultramoderne et de grande taille auto-développé par Baidu, avec d'excellentes performances générales, largement applicable à divers scénarios de tâches complexes ; prend en charge la connexion automatique aux plugins de recherche Baidu pour assurer la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il affiche de meilleures performances."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) offre une sortie linguistique optimisée et des possibilités d'application diversifiées."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Rafraîchissement du modèle Phi-3-mini."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2 a démontré des performances exceptionnelles sur diverses tâches de langage visuel, y compris la compréhension de documents et de graphiques, la compréhension de texte de scène, l'OCR, ainsi que la résolution de problèmes scientifiques et mathématiques."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2 a démontré des performances exceptionnelles sur diverses tâches de langage visuel, y compris la compréhension de documents et de graphiques, la compréhension de texte de scène, l'OCR, ainsi que la résolution de problèmes scientifiques et mathématiques."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande pour RAG ou un prompt à quelques exemples."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "Un modèle de 7 milliards de paramètres, prouvant une meilleure qualité que Phi-3-mini, avec un accent sur des données denses en raisonnement de haute qualité."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Version améliorée du modèle Phi-3-mini."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Version améliorée du modèle Phi-3-vision."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K est configuré avec une capacité de traitement de contexte exceptionnel, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un support varié pour les références dans des communications textuelles complexes."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2 a démontré des performances exceptionnelles sur diverses tâches de langage visuel, y compris la compréhension de documents et de graphiques, la compréhension de texte de scène, l'OCR, ainsi que la résolution de problèmes scientifiques et mathématiques."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL est la dernière itération du modèle Qwen-VL, atteignant des performances de pointe dans les tests de référence de compréhension visuelle."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "En tant que version bêta de Qwen2, Qwen1.5 utilise des données à grande échelle pour réaliser des fonctionnalités de dialogue plus précises."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL est la dernière itération du modèle Qwen-VL, atteignant des performances de pointe dans les tests de référence de compréhension visuelle."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, avec une capacité de compréhension et de génération améliorée."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille avec des capacités de compréhension et de génération améliorées."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille, conçue pour optimiser le traitement des tâches d'instruction."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 est une toute nouvelle série de modèles de langage à grande échelle, conçue pour optimiser le traitement des tâches d'instruction."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille, conçue pour optimiser le traitement des tâches d'instruction."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder se concentre sur la rédaction de code."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b est un modèle de langage visuel capable de recevoir simultanément des entrées d'images et de texte, entraîné sur des données de haute qualité, adapté aux tâches multimodales."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "Le modèle d'instructions Gemma 2 9B, basé sur la technologie antérieure de Google, est adapté à diverses tâches de génération de texte telles que la réponse aux questions, le résumé et le raisonnement."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "Le modèle d'instructions Llama 3.1 8B est optimisé pour les dialogues multilingues, capable de surpasser la plupart des modèles open source et fermés sur des benchmarks industriels courants."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 11B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "Le modèle d'instructions Llama 3.2 1B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent la recherche et le résumé."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "Le modèle d'instructions Llama 3.2 3B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent les requêtes, la réécriture de prompts et l'assistance à l'écriture."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 90B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "Le modèle d'instructions Phi 3 Vision est un modèle multimodal léger, capable de traiter des informations visuelles et textuelles complexes, avec une forte capacité de raisonnement."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 est une série de modèles de langage à décodage uniquement développée par l'équipe Qwen d'Alibaba Cloud. Ces modèles sont offerts en différentes tailles, y compris 0.5B, 1.5B, 3B, 7B, 14B, 32B et 72B, avec des variantes de base (base) et d'instruction (instruct)."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "Le modèle StarCoder 15.5B prend en charge des tâches de programmation avancées, avec des capacités multilingues améliorées, adapté à la génération et à la compréhension de code complexes."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre de contexte longue de 256K, des appels de fonction, une sortie structurée et une génération ancrée."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "Un modèle LLM basé sur Mamba de qualité production pour atteindre des performances, une qualité et une efficacité de coût de premier ordre."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "Capacités d'inférence d'image exceptionnelles sur des images haute résolution, adaptées aux applications de compréhension visuelle."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "Capacités d'inférence d'image avancées pour les applications d'agents de compréhension visuelle."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 est conçu pour traiter des tâches combinant des données visuelles et textuelles. Il excelle dans des tâches telles que la description d'images et les questions-réponses visuelles, comblant le fossé entre la génération de langage et le raisonnement visuel."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) offre d'excellentes capacités de traitement du langage et une expérience interactive exceptionnelle."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "L'un des meilleurs modèles de conversation."
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 offre d'excellentes capacités de traitement du langage et une expérience d'interaction exceptionnelle."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B) est un modèle de chat puissant, prenant en charge des besoins de dialogue complexes."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B) offre un support multilingue, couvrant un large éventail de connaissances."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite est adapté aux environnements nécessitant une haute performance et une faible latence."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V est un nouveau modèle multimodal de nouvelle génération lancé par OpenBMB, offrant d'excellentes capacités de reconnaissance OCR et de compréhension multimodale, prenant en charge une large gamme d'applications."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B est le modèle de pointe de Mistral sur le marché."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B est un modèle à excellent rapport qualité-prix de Mistral."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral est le modèle 7B lancé par Mistral AI, adapté aux besoins variés de traitement du langage."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large est le modèle phare de Mistral, combinant des capacités de génération de code, de mathématiques et de raisonnement, prenant en charge une fenêtre de contexte de 128k."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) est un modèle de langage avancé (LLM) avec des capacités de raisonnement, de connaissance et de codage à la pointe de la technologie."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large est le modèle phare, excellent pour les tâches multilingues, le raisonnement complexe et la génération de code, idéal pour des applications haut de gamme."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 offre une capacité de calcul efficace et une compréhension du langage naturel, adapté à un large éventail d'applications."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B est un modèle compact mais performant, excellent pour le traitement par lot et les tâches simples, comme la classification et la génération de texte, avec de bonnes capacités d'inférence."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) est un super grand modèle de langage, prenant en charge des besoins de traitement extrêmement élevés."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B est un modèle de mélange d'experts pré-entraîné, utilisé pour des tâches textuelles générales."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B est un modèle d'experts clairsemés qui utilise de multiples paramètres pour améliorer la vitesse d'inférence, adapté au traitement des tâches multilingues et de génération de code."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct est un modèle standard de l'industrie, alliant optimisation de la vitesse et support de longs contextes."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B est un modèle de langage de grande taille personnalisé par NVIDIA, conçu pour améliorer le degré d'aide des réponses générées par LLM aux requêtes des utilisateurs."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "Un excellent rapport qualité-prix avec des performances exceptionnelles. Optimisé pour un équilibre de haute précision en fonction des performances, de la vitesse de raisonnement et des coûts."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "Modèle haute performance dernier cri, garantissant une sortie de haute qualité tout en améliorant considérablement la vitesse d'inférence."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "Version allégée, l'utilisation de yi-lightning est recommandée."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "Modèle de taille moyenne, optimisé et ajusté, offrant un équilibre de capacités et un bon rapport qualité-prix. Optimisation approfondie des capacités de suivi des instructions."
993
1062
  },