@lobehub/chat 1.31.5 → 1.31.6

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (54) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/locales/ar/models.json +39 -7
  3. package/locales/ar/providers.json +4 -0
  4. package/locales/bg-BG/models.json +38 -6
  5. package/locales/bg-BG/providers.json +4 -0
  6. package/locales/de-DE/models.json +39 -7
  7. package/locales/de-DE/providers.json +4 -0
  8. package/locales/en-US/models.json +38 -6
  9. package/locales/en-US/providers.json +4 -0
  10. package/locales/es-ES/models.json +38 -6
  11. package/locales/es-ES/providers.json +4 -0
  12. package/locales/fa-IR/modelProvider.json +12 -0
  13. package/locales/fa-IR/models.json +39 -7
  14. package/locales/fa-IR/providers.json +4 -0
  15. package/locales/fr-FR/models.json +38 -6
  16. package/locales/fr-FR/providers.json +4 -0
  17. package/locales/it-IT/models.json +38 -6
  18. package/locales/it-IT/providers.json +4 -0
  19. package/locales/ja-JP/models.json +39 -7
  20. package/locales/ja-JP/providers.json +4 -0
  21. package/locales/ko-KR/models.json +38 -6
  22. package/locales/ko-KR/providers.json +4 -0
  23. package/locales/nl-NL/models.json +38 -6
  24. package/locales/nl-NL/providers.json +4 -0
  25. package/locales/pl-PL/models.json +37 -5
  26. package/locales/pl-PL/providers.json +4 -0
  27. package/locales/pt-BR/models.json +38 -6
  28. package/locales/pt-BR/providers.json +4 -0
  29. package/locales/ru-RU/models.json +38 -6
  30. package/locales/ru-RU/providers.json +4 -0
  31. package/locales/tr-TR/models.json +39 -7
  32. package/locales/tr-TR/providers.json +4 -0
  33. package/locales/vi-VN/models.json +37 -5
  34. package/locales/vi-VN/providers.json +4 -0
  35. package/locales/zh-CN/modelProvider.json +1 -1
  36. package/locales/zh-CN/models.json +37 -5
  37. package/locales/zh-CN/providers.json +4 -0
  38. package/locales/zh-TW/models.json +38 -6
  39. package/locales/zh-TW/providers.json +4 -0
  40. package/package.json +1 -1
  41. package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
  42. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
  43. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
  44. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
  45. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
  46. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
  47. package/src/config/modelProviders/cloudflare.ts +1 -0
  48. package/src/features/ChatInput/ActionBar/config.ts +1 -20
  49. package/src/features/ChatInput/ActionBar/index.tsx +25 -28
  50. package/src/features/ChatInput/types.ts +1 -0
  51. package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
  52. package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
  53. package/src/features/Conversation/index.ts +2 -0
  54. package/src/features/Conversation/index.tsx +0 -30
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generación tras generación, Meta Llama 3 demuestra un rendimiento de vanguardia en una amplia gama de benchmarks de la industria y ofrece nuevas capacidades, incluyendo un razonamiento mejorado."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "Utiliza tecnología de búsqueda mejorada para lograr un enlace completo entre el gran modelo y el conocimiento del dominio, así como el conocimiento de toda la red. Soporta la carga de documentos en PDF, Word y otros formatos, así como la entrada de URL, proporcionando información oportuna y completa, con resultados precisos y profesionales."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "El modelo tiene la mejor capacidad en el país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia autorizadas."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "Modelo de lenguaje de gran escala de última generación desarrollado por Baidu, con un rendimiento sobresaliente en una variedad de escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "Modelo de lenguaje a gran escala desarrollado por Baidu, con un rendimiento general excepcional, ampliamente aplicable a escenas complejas en diversos campos; soporta la conexión automática al complemento de búsqueda de Baidu, garantizando la actualidad de la información de las preguntas y respuestas. En comparación con ERNIE 4.0, tiene un rendimiento superior."
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 es una nueva serie de grandes modelos de lenguaje, diseñada para optimizar el manejo de tareas instructivas."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder se centra en la escritura de código."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B es una versión de código abierto, que proporciona una experiencia de conversación optimizada para aplicaciones de diálogo."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large es el modelo MoE de Transformer de código abierto más grande de la industria, con un total de 389 mil millones de parámetros y 52 mil millones de parámetros activados."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "Orientado a escenarios de productividad, admite el procesamiento de tareas complejas y la generación eficiente de texto, adecuado para aplicaciones en campos profesionales."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini es el último modelo lanzado por OpenAI después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de menor tamaño, es mucho más económico que otros modelos de vanguardia recientes y es más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio significativa. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Ofrece un rendimiento comparable al de Grok 2, pero con mayor eficiencia, velocidad y funcionalidad."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "Modelo de código Qwen de Tongyi."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "El modelo de código Tongyi Qwen."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "El modelo de 7B de Tongyi Qwen 2.5, de código abierto."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1004
- "description": "La versión de código abierto del modelo de código Tongyi Qwen."
1035
+ "qwen2.5-coder-32b-instruct": {
1036
+ "description": "Versión de código abierto del modelo de código Qwen de Tongyi."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "La versión de código abierto del modelo de código Tongyi Qwen."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) es adecuado para tareas de instrucciones detalladas, ofreciendo una excelente capacidad de procesamiento de lenguaje."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingües, razonamiento y asistentes inteligentes."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock es un servicio proporcionado por Amazon AWS, enfocado en ofrecer modelos de lenguaje y visuales avanzados para empresas. Su familia de modelos incluye la serie Claude de Anthropic, la serie Llama 3.1 de Meta, entre otros, abarcando una variedad de opciones desde ligeras hasta de alto rendimiento, apoyando tareas como generación de texto, diálogos y procesamiento de imágenes, adecuadas para aplicaciones empresariales de diferentes escalas y necesidades."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "Plataforma de desarrollo y servicios de modelos grandes y aplicaciones nativas de IA de nivel empresarial, que ofrece la cadena de herramientas más completa y fácil de usar para el desarrollo de modelos de inteligencia artificial generativa y el desarrollo de aplicaciones en todo el proceso."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI es una empresa dedicada a construir inteligencia artificial para acelerar los descubrimientos científicos humanos. Nuestra misión es promover nuestra comprensión compartida del universo."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI se centra en la tecnología de inteligencia artificial de la era 2.0, promoviendo enérgicamente la innovación y aplicación de 'humano + inteligencia artificial', utilizando modelos extremadamente potentes y tecnologías de IA avanzadas para mejorar la productividad humana y lograr el empoderamiento tecnológico."
90
94
  },
@@ -51,6 +51,18 @@
51
51
  "title": "استفاده از اطلاعات احراز هویت سفارشی Bedrock"
52
52
  }
53
53
  },
54
+ "cloudflare": {
55
+ "apiKey": {
56
+ "desc": "لطفاً کلید API Cloudflare را وارد کنید",
57
+ "placeholder": "کلید API Cloudflare",
58
+ "title": "کلید API Cloudflare"
59
+ },
60
+ "baseURLOrAccountID": {
61
+ "desc": "شناسه حساب Cloudflare یا آدرس API سفارشی را وارد کنید",
62
+ "placeholder": "شناسه حساب Cloudflare / آدرس API سفارشی",
63
+ "title": "شناسه حساب Cloudflare / آدرس API"
64
+ }
65
+ },
54
66
  "github": {
55
67
  "personalAccessToken": {
56
68
  "desc": "توکن دسترسی شخصی Github خود را وارد کنید، برای ایجاد [اینجا](https://github.com/settings/tokens) کلیک کنید",
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "نسل به نسل، Meta Llama 3 عملکردی پیشرفته در طیف وسیعی از معیارهای صنعتی نشان می‌دهد و قابلیت‌های جدیدی از جمله بهبود در استدلال را ارائه می‌دهد."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزه‌ای و دانش کل وب متصل می‌کند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرس‌های وب پشتیبانی می‌کند. اطلاعات به‌موقع و جامع دریافت می‌شود و نتایج خروجی دقیق و حرفه‌ای هستند."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجسته‌ای دارد."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "مدل زبان بزرگ پرچمدار توسعه‌یافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش می‌دهد و دارای توانایی‌های عمومی قدرتمندی است. این مدل می‌تواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونه‌ها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا به‌روز بودن اطلاعات پرسش و پاسخ را تضمین کند."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "مدل زبان بزرگ مقیاس پرچمدار توسعه‌یافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل توانایی‌های مدل را به ارمغان آورده و برای وظایف پیچیده در حوزه‌های مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به‌روز بماند."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "مدل زبان بزرگ و پرچمدار خودساخته بایدو که عملکردی عالی دارد و به طور گسترده‌ای در سناریوهای پیچیده در زمینه‌های مختلف کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند و به روز بودن اطلاعات پرسش و پاسخ را تضمین می‌کند. نسبت به ERNIE 4.0 در عملکرد برتر است."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "مدل زبان بزرگ و پیشرفته‌ای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینه‌های مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو به‌طور خودکار پشتیبانی می‌کند تا اطلاعات به‌روز را در پاسخ‌ها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
52
75
  },
@@ -146,8 +169,8 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 یک سری جدید از مدل‌های زبانی بزرگ است که با هدف بهینه‌سازی پردازش وظایف دستوری طراحی شده است."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
150
- "description": "Qwen2.5-Coder بر روی نوشتن کد تمرکز دارد."
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
173
+ "description": "Qwen2.5-Coder بر نوشتن کد تمرکز دارد."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
153
176
  "description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخ‌های حرفه‌ای برای مسائل پیچیده ارائه می‌دهد."
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینه‌شده برای برنامه‌های مکالمه را ارائه می‌دهد."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large بزرگترین مدل MoE با ساختار Transformer متن باز در صنعت است که دارای ۳۸۹۰ میلیارد پارامتر کل و ۵۲۰ میلیارد پارامتر فعال است."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "برای سناریوهای بهره‌وری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی می‌کند و برای کاربردهای حرفه‌ای مناسب است."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "یک راه‌حل هوش مصنوعی مقرون‌به‌صرفه که برای انواع وظایف متنی و تصویری مناسب است."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "عملکردی معادل Grok 2 دارد، اما با کارایی، سرعت و قابلیت‌های بالاتر."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند می‌دهد."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی به‌ویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانی‌مدت در محتوای متنی طولانی مناسب است و می‌تواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "مدل کد Qwen با قابلیت‌های جامع."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "مدل کدنویسی تونگی چیان‌ون."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "مدل 7B متن‌باز Qwen 2.5 برای استفاده عمومی."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1004
- "description": "نسخه متن‌باز مدل کدنویسی Tongyi Qianwen."
1035
+ "qwen2.5-coder-32b-instruct": {
1036
+ "description": "نسخه متن باز مدل کد Qwen."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "نسخه متن‌باز مدل کدنویسی تونگی چیان‌ون."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) مناسب برای وظایف دقیق دستوری، ارائه‌دهنده توانایی‌های برجسته در پردازش زبان."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet استانداردهای صنعتی را ارتقا داده و عملکردی فراتر از مدل‌های رقیب و Claude 3 Opus دارد و در ارزیابی‌های گسترده‌ای عملکرد عالی از خود نشان می‌دهد، در حالی که سرعت و هزینه مدل‌های سطح متوسط ما را نیز داراست."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 یک مدل زبانی ارائه شده توسط هوش مصنوعی مایکروسافت است که در مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجسته‌ای دارد."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock یک سرویس ارائه شده توسط آمازون AWS است که بر ارائه مدل‌های پیشرفته زبان AI و مدل‌های بصری برای شرکت‌ها تمرکز دارد. خانواده مدل‌های آن شامل سری Claude از Anthropic، سری Llama 3.1 از Meta و غیره است که از مدل‌های سبک تا مدل‌های با عملکرد بالا را پوشش می‌دهد و از وظایفی مانند تولید متن، مکالمه و پردازش تصویر پشتیبانی می‌کند. این سرویس برای برنامه‌های شرکتی با مقیاس‌ها و نیازهای مختلف مناسب است."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، توانایی‌های مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینه‌هایی مانند هم‌ترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "پلتفرم جامع توسعه و خدمات مدل‌های بزرگ و برنامه‌های بومی هوش مصنوعی در سطح سازمانی، ارائه‌دهنده کامل‌ترین و کاربرپسندترین زنجیره ابزارهای توسعه مدل‌های هوش مصنوعی مولد و توسعه برنامه‌ها"
87
88
  },
89
+ "xai": {
90
+ "description": "xAI یک شرکت است که به ساخت هوش مصنوعی برای تسریع کشفیات علمی بشر اختصاص دارد. مأموریت ما پیشبرد درک مشترک ما از جهان است."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "صفر و یک متعهد به پیشبرد انقلاب فناوری AI 2.0 با محوریت انسان است و هدف آن ایجاد ارزش اقتصادی و اجتماعی عظیم از طریق مدل‌های زبانی بزرگ و همچنین ایجاد اکوسیستم جدید هوش مصنوعی و مدل‌های تجاری است."
90
94
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Génération après génération, Meta Llama 3 démontre des performances de pointe sur une large gamme de références industrielles et offre de nouvelles capacités, y compris un raisonnement amélioré."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "Modèle linguistique ultramoderne et de grande taille auto-développé par Baidu, avec d'excellentes performances générales, largement applicable à divers scénarios de tâches complexes ; prend en charge la connexion automatique aux plugins de recherche Baidu pour assurer la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il affiche de meilleures performances."
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille, conçue pour optimiser le traitement des tâches d'instruction."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder se concentre sur la rédaction de code."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large est le plus grand modèle MoE à architecture Transformer open source de l'industrie, avec un total de 389 milliards de paramètres et 52 milliards de paramètres activés."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini est le dernier modèle lancé par OpenAI après le GPT-4 Omni, prenant en charge les entrées multimodales et produisant des sorties textuelles. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que le GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. Le GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus du GPT-4 en termes de préférences de chat."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Offre des performances comparables à Grok 2, mais avec une efficacité, une vitesse et des fonctionnalités supérieures."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "Modèle de code Qwen universel."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "Le modèle de code Tongyi Qwen."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "Le modèle de 7B de Tongyi Qwen 2.5, open source."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1004
- "description": "Version open source du modèle de code Tongyi Qwen."
1035
+ "qwen2.5-coder-32b-instruct": {
1036
+ "description": "Version open source du modèle de code Qwen universel."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "Version open source du modèle de code Tongyi Qwen."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) est adapté aux tâches d'instructions détaillées, offrant d'excellentes capacités de traitement du langage."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock est un service proposé par Amazon AWS, axé sur la fourniture de modèles linguistiques et visuels avancés pour les entreprises. Sa famille de modèles comprend la série Claude d'Anthropic, la série Llama 3.1 de Meta, etc., offrant une variété d'options allant des modèles légers aux modèles haute performance, prenant en charge des tâches telles que la génération de texte, les dialogues et le traitement d'images, adaptées aux applications d'entreprise de différentes tailles et besoins."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek est une entreprise spécialisée dans la recherche et l'application des technologies d'intelligence artificielle, dont le dernier modèle, DeepSeek-V2.5, combine des capacités de dialogue général et de traitement de code, réalisant des améliorations significatives dans l'alignement des préférences humaines, les tâches d'écriture et le suivi des instructions."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "Plateforme de développement et de services d'applications AI natives et de modèles de grande envergure, tout-en-un pour les entreprises, offrant la chaîne d'outils la plus complète et facile à utiliser pour le développement de modèles d'intelligence artificielle générative et le développement d'applications."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI est une entreprise dédiée à la construction d'intelligences artificielles pour accélérer les découvertes scientifiques humaines. Notre mission est de promouvoir notre compréhension commune de l'univers."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI se concentre sur les technologies d'intelligence artificielle de l'ère IA 2.0, promouvant activement l'innovation et l'application de \"l'homme + l'intelligence artificielle\", utilisant des modèles puissants et des technologies IA avancées pour améliorer la productivité humaine et réaliser l'autonomisation technologique."
90
94
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generazione dopo generazione, Meta Llama 3 dimostra prestazioni all'avanguardia su una vasta gamma di benchmark del settore e offre nuove capacità, inclusa una ragionamento migliorato."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "Utilizza tecnologie di ricerca avanzate per collegare completamente il grande modello con la conoscenza di settore e la conoscenza globale. Supporta il caricamento di vari documenti come PDF, Word e l'immissione di URL, con acquisizione di informazioni tempestiva e completa, e risultati di output accurati e professionali."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "Il modello ha la migliore capacità in Cina, superando i modelli mainstream esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Ha anche capacità multimodali leader nel settore, con prestazioni eccellenti in vari benchmark di valutazione."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, con prestazioni eccellenti in vari scenari di compiti complessi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "Il modello linguistico ultra grande di Baidu, auto-sviluppato, offre eccellenti prestazioni generali, ampiamente utilizzabile in scenari complessi di vari settori; supporta l'integrazione automatica dei plugin di ricerca di Baidu, garantendo l'attualità delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 è una nuova serie di modelli linguistici di grandi dimensioni, progettata per ottimizzare l'elaborazione dei compiti istruzionali."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder si concentra sulla scrittura di codice."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B è una versione open source, progettata per fornire un'esperienza di dialogo ottimizzata per applicazioni conversazionali."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large è il modello MoE con architettura Transformer open source più grande del settore, con un totale di 389 miliardi di parametri e 52 miliardi di parametri attivi."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "Focalizzato su scenari di produttività, supporta l'elaborazione di compiti complessi e la generazione di testo efficiente, adatto per applicazioni professionali."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini è il modello più recente lanciato da OpenAI dopo il GPT-4 Omni, supporta input visivi e testuali e produce output testuali. Come il loro modello di punta in formato ridotto, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un rapporto qualità-prezzo significativo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Offre prestazioni comparabili a Grok 2, ma con maggiore efficienza, velocità e funzionalità."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "Modello di codice Qwen di Tongyi."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "Modello di codice Tongyi Qwen."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "Modello da 7B di Tongyi Qwen 2.5, open source."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1004
- "description": "Versione open source del modello di codice Tongyi Qwen."
1035
+ "qwen2.5-coder-32b-instruct": {
1036
+ "description": "Versione open source del modello di codice Qwen di Tongyi."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "Versione open source del modello di codice Tongyi Qwen."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) è adatto per compiti di istruzione dettagliati, offrendo eccellenti capacità di elaborazione linguistica."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando le prestazioni dei modelli concorrenti e di Claude 3 Opus, dimostrando eccellenza in una vasta gamma di valutazioni, mantenendo al contempo la velocità e i costi dei nostri modelli di livello medio."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock è un servizio offerto da Amazon AWS, focalizzato sulla fornitura di modelli linguistici e visivi AI avanzati per le aziende. La sua famiglia di modelli include la serie Claude di Anthropic, la serie Llama 3.1 di Meta e altro, coprendo una varietà di opzioni da leggere a ad alte prestazioni, supportando generazione di testo, dialogo, elaborazione di immagini e altro, adatta a diverse applicazioni aziendali di varie dimensioni e necessità."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek è un'azienda focalizzata sulla ricerca e applicazione della tecnologia AI, il cui ultimo modello DeepSeek-V2.5 combina capacità di dialogo generico e elaborazione del codice, realizzando miglioramenti significativi nell'allineamento delle preferenze umane, nei compiti di scrittura e nel rispetto delle istruzioni."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "Piattaforma di sviluppo e servizi per modelli di grandi dimensioni e applicazioni AI native, a livello aziendale, che offre la catena di strumenti completa e facile da usare per lo sviluppo di modelli di intelligenza artificiale generativa e per l'intero processo di sviluppo delle applicazioni."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI è un'azienda dedicata alla costruzione di intelligenza artificiale per accelerare le scoperte scientifiche umane. La nostra missione è promuovere la nostra comprensione collettiva dell'universo."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI si concentra sulla tecnologia AI dell'era 2.0, promuovendo attivamente l'innovazione e l'applicazione di \"uomo + intelligenza artificiale\", utilizzando modelli potenti e tecnologie AI avanzate per migliorare la produttività umana e realizzare l'abilitazione tecnologica."
90
94
  },