@lobehub/chat 1.31.5 → 1.31.7
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/Dockerfile +3 -1
- package/Dockerfile.database +3 -1
- package/docs/usage/providers/cloudflare.mdx +82 -0
- package/docs/usage/providers/cloudflare.zh-CN.mdx +79 -0
- package/locales/ar/models.json +39 -7
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +38 -6
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +39 -7
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +38 -6
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +38 -6
- package/locales/es-ES/providers.json +4 -0
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -7
- package/locales/fa-IR/providers.json +4 -0
- package/locales/fr-FR/models.json +38 -6
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +38 -6
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +39 -7
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +38 -6
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +38 -6
- package/locales/nl-NL/providers.json +4 -0
- package/locales/pl-PL/models.json +37 -5
- package/locales/pl-PL/providers.json +4 -0
- package/locales/pt-BR/models.json +38 -6
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +38 -6
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +39 -7
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +37 -5
- package/locales/vi-VN/providers.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -1
- package/locales/zh-CN/models.json +37 -5
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +38 -6
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
- package/src/config/llm.ts +0 -66
- package/src/config/modelProviders/cloudflare.ts +1 -0
- package/src/features/ChatInput/ActionBar/config.ts +1 -20
- package/src/features/ChatInput/ActionBar/index.tsx +25 -28
- package/src/features/ChatInput/types.ts +1 -0
- package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
- package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
- package/src/features/Conversation/index.ts +2 -0
- package/src/server/globalConfig/genServerLLMConfig.test.ts +5 -1
- package/src/server/globalConfig/genServerLLMConfig.ts +3 -2
- package/src/features/Conversation/index.tsx +0 -30
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock ist ein Service von Amazon AWS, der sich darauf konzentriert, Unternehmen fortschrittliche KI-Sprach- und visuelle Modelle bereitzustellen. Die Modellfamilie umfasst die Claude-Serie von Anthropic, die Llama 3.1-Serie von Meta und mehr, und bietet eine Vielzahl von Optionen von leichtgewichtig bis hochleistungsfähig, die Textgenerierung, Dialoge, Bildverarbeitung und andere Aufgaben unterstützen und für Unternehmensanwendungen unterschiedlicher Größen und Anforderungen geeignet sind."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek ist ein Unternehmen, das sich auf die Forschung und Anwendung von KI-Technologien spezialisiert hat. Ihr neuestes Modell, DeepSeek-V2.5, kombiniert allgemeine Dialog- und Codeverarbeitungsfähigkeiten und hat signifikante Fortschritte in den Bereichen menschliche Präferenzanpassung, Schreibaufgaben und Befehlsbefolgung erzielt."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Eine unternehmensweite, umfassende Plattform für die Entwicklung und den Service von großen Modellen und KI-nativen Anwendungen, die die vollständigsten und benutzerfreundlichsten Werkzeuge für die Entwicklung generativer KI-Modelle und den gesamten Anwendungsentwicklungsprozess bietet."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI ist ein Unternehmen, das sich der Entwicklung von Künstlicher Intelligenz widmet, um menschliche wissenschaftliche Entdeckungen zu beschleunigen. Unsere Mission ist es, unser gemeinsames Verständnis des Universums voranzutreiben."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI konzentriert sich auf die künstliche Intelligenz-Technologie der AI 2.0-Ära und fördert aktiv die Innovation und Anwendung von 'Mensch + künstliche Intelligenz', indem sie leistungsstarke Modelle und fortschrittliche KI-Technologien einsetzt, um die Produktivität der Menschen zu steigern und technologische Befähigung zu erreichen."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra is the most powerful version in the Spark large model series, enhancing text content understanding and summarization capabilities while upgrading online search links. It is a comprehensive solution for improving office productivity and accurately responding to demands, leading the industry as an intelligent product."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Utilizes search enhancement technology to achieve comprehensive links between large models and domain knowledge, as well as knowledge from the entire web. Supports uploads of various documents such as PDF and Word, and URL input, providing timely and comprehensive information retrieval with accurate and professional output."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "The model is the best in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also boasts industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "The leading model in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also possesses industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "The leading model in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also possesses industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Baidu's self-developed flagship ultra-large-scale language model, which has achieved a comprehensive upgrade in model capabilities compared to ERNIE 3.5, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, widely applicable to complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure timely Q&A information. Compared to ERNIE 4.0, it performs even better."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Baidu's self-developed flagship ultra-large-scale language model, demonstrating excellent overall performance, suitable for complex task scenarios across various fields; supports automatic integration with Baidu search plugins to ensure the timeliness of Q&A information. It offers better performance compared to ERNIE 4.0."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 is a new large language model series designed to optimize instruction-based task processing."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder focuses on code writing."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B is an open-source version that provides an optimized conversational experience for chat applications."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large is the industry's largest open-source Transformer architecture MoE model, with a total of 389 billion parameters and 52 billion active parameters."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Targeted at productivity scenarios, supporting complex task processing and efficient text generation, suitable for professional applications."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini is the latest model released by OpenAI after GPT-4 Omni, supporting both image and text input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models, costing over 60% less than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Offers performance comparable to Grok 2 but with higher efficiency, speed, and functionality."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K is equipped with an extra-large context processing capability, able to handle up to 128K of contextual information, making it particularly suitable for long-form content that requires comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Tongyi Qianwen code model."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "The Tongyi Qianwen Coder model."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "The 7B model of Tongyi Qianwen 2.5 is open-sourced."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Open-source version of the Tongyi Qianwen code model."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "The open-source version of the Tongyi Qianwen Coder model."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) is suitable for refined instruction tasks, offering excellent language processing capabilities."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant applications."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock is a service provided by Amazon AWS, focusing on delivering advanced AI language and visual models for enterprises. Its model family includes Anthropic's Claude series, Meta's Llama 3.1 series, and more, offering a range of options from lightweight to high-performance, supporting tasks such as text generation, conversation, and image processing for businesses of varying scales and needs."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek is a company focused on AI technology research and application, with its latest model DeepSeek-V2.5 integrating general dialogue and code processing capabilities, achieving significant improvements in human preference alignment, writing tasks, and instruction following."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "An enterprise-level one-stop platform for large model and AI-native application development and services, providing the most comprehensive and user-friendly toolchain for the entire process of generative artificial intelligence model development and application development."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI is a company dedicated to building artificial intelligence to accelerate human scientific discovery. Our mission is to advance our collective understanding of the universe."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI focuses on AI 2.0 era technologies, vigorously promoting the innovation and application of 'human + artificial intelligence', using powerful models and advanced AI technologies to enhance human productivity and achieve technological empowerment."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Generación tras generación, Meta Llama 3 demuestra un rendimiento de vanguardia en una amplia gama de benchmarks de la industria y ofrece nuevas capacidades, incluyendo un razonamiento mejorado."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Utiliza tecnología de búsqueda mejorada para lograr un enlace completo entre el gran modelo y el conocimiento del dominio, así como el conocimiento de toda la red. Soporta la carga de documentos en PDF, Word y otros formatos, así como la entrada de URL, proporcionando información oportuna y completa, con resultados precisos y profesionales."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "El modelo tiene la mejor capacidad en el país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia autorizadas."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Modelo de lenguaje a gran escala ultra avanzado desarrollado por Baidu, que ha logrado una actualización completa de las capacidades del modelo en comparación con ERNIE 3.5, siendo ampliamente aplicable a escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Modelo de lenguaje de gran escala de última generación desarrollado por Baidu, con un rendimiento sobresaliente en una variedad de escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas. En comparación con ERNIE 4.0, ofrece un rendimiento superior."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Modelo de lenguaje a gran escala desarrollado por Baidu, con un rendimiento general excepcional, ampliamente aplicable a escenas complejas en diversos campos; soporta la conexión automática al complemento de búsqueda de Baidu, garantizando la actualidad de la información de las preguntas y respuestas. En comparación con ERNIE 4.0, tiene un rendimiento superior."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 es una nueva serie de grandes modelos de lenguaje, diseñada para optimizar el manejo de tareas instructivas."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder se centra en la escritura de código."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B es una versión de código abierto, que proporciona una experiencia de conversación optimizada para aplicaciones de diálogo."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large es el modelo MoE de Transformer de código abierto más grande de la industria, con un total de 389 mil millones de parámetros y 52 mil millones de parámetros activados."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Orientado a escenarios de productividad, admite el procesamiento de tareas complejas y la generación eficiente de texto, adecuado para aplicaciones en campos profesionales."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini es el último modelo lanzado por OpenAI después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de menor tamaño, es mucho más económico que otros modelos de vanguardia recientes y es más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio significativa. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Ofrece un rendimiento comparable al de Grok 2, pero con mayor eficiencia, velocidad y funcionalidad."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Modelo de código Qwen de Tongyi."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "El modelo de código Tongyi Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "El modelo de 7B de Tongyi Qwen 2.5, de código abierto."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Versión de código abierto del modelo de código Qwen de Tongyi."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "La versión de código abierto del modelo de código Tongyi Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) es adecuado para tareas de instrucciones detalladas, ofreciendo una excelente capacidad de procesamiento de lenguaje."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingües, razonamiento y asistentes inteligentes."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock es un servicio proporcionado por Amazon AWS, enfocado en ofrecer modelos de lenguaje y visuales avanzados para empresas. Su familia de modelos incluye la serie Claude de Anthropic, la serie Llama 3.1 de Meta, entre otros, abarcando una variedad de opciones desde ligeras hasta de alto rendimiento, apoyando tareas como generación de texto, diálogos y procesamiento de imágenes, adecuadas para aplicaciones empresariales de diferentes escalas y necesidades."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Plataforma de desarrollo y servicios de modelos grandes y aplicaciones nativas de IA de nivel empresarial, que ofrece la cadena de herramientas más completa y fácil de usar para el desarrollo de modelos de inteligencia artificial generativa y el desarrollo de aplicaciones en todo el proceso."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI es una empresa dedicada a construir inteligencia artificial para acelerar los descubrimientos científicos humanos. Nuestra misión es promover nuestra comprensión compartida del universo."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI se centra en la tecnología de inteligencia artificial de la era 2.0, promoviendo enérgicamente la innovación y aplicación de 'humano + inteligencia artificial', utilizando modelos extremadamente potentes y tecnologías de IA avanzadas para mejorar la productividad humana y lograr el empoderamiento tecnológico."
|
90
94
|
},
|
@@ -51,6 +51,18 @@
|
|
51
51
|
"title": "استفاده از اطلاعات احراز هویت سفارشی Bedrock"
|
52
52
|
}
|
53
53
|
},
|
54
|
+
"cloudflare": {
|
55
|
+
"apiKey": {
|
56
|
+
"desc": "لطفاً کلید API Cloudflare را وارد کنید",
|
57
|
+
"placeholder": "کلید API Cloudflare",
|
58
|
+
"title": "کلید API Cloudflare"
|
59
|
+
},
|
60
|
+
"baseURLOrAccountID": {
|
61
|
+
"desc": "شناسه حساب Cloudflare یا آدرس API سفارشی را وارد کنید",
|
62
|
+
"placeholder": "شناسه حساب Cloudflare / آدرس API سفارشی",
|
63
|
+
"title": "شناسه حساب Cloudflare / آدرس API"
|
64
|
+
}
|
65
|
+
},
|
54
66
|
"github": {
|
55
67
|
"personalAccessToken": {
|
56
68
|
"desc": "توکن دسترسی شخصی Github خود را وارد کنید، برای ایجاد [اینجا](https://github.com/settings/tokens) کلیک کنید",
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "نسل به نسل، Meta Llama 3 عملکردی پیشرفته در طیف وسیعی از معیارهای صنعتی نشان میدهد و قابلیتهای جدیدی از جمله بهبود در استدلال را ارائه میدهد."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "این مدل از نظر توانایی در داخل کشور رتبه اول را دارد و در وظایف چینی مانند دانشنامه، متون طولانی و تولید محتوا از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای توانایی چندوجهی پیشرو در صنعت است و در چندین معیار ارزیابی معتبر عملکرد برجستهای دارد."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متنهای طولانی و تولید خلاقانه از مدلهای اصلی خارجی پیشی میگیرد. همچنین دارای قابلیتهای چندرسانهای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "مدل زبان بزرگ پرچمدار توسعهیافته توسط بایدو، که حجم عظیمی از متون چینی و انگلیسی را پوشش میدهد و دارای تواناییهای عمومی قدرتمندی است. این مدل میتواند نیازهای اکثر سناریوهای پرسش و پاسخ، تولید محتوا و استفاده از افزونهها را برآورده کند؛ همچنین از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا بهروز بودن اطلاعات پرسش و پاسخ را تضمین کند."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "مدل زبان بزرگ مقیاس پرچمدار توسعهیافته توسط بایدو، در مقایسه با ERNIE 3.5 ارتقاء کامل تواناییهای مدل را به ارمغان آورده و برای وظایف پیچیده در حوزههای مختلف مناسب است؛ از افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ بهروز بماند."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "مدل زبان بزرگ و پرچمدار خودساخته بایدو که عملکردی عالی دارد و به طور گستردهای در سناریوهای پیچیده در زمینههای مختلف کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند و به روز بودن اطلاعات پرسش و پاسخ را تضمین میکند. نسبت به ERNIE 4.0 در عملکرد برتر است."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "مدل زبان بزرگ و پیشرفتهای که توسط بایدو توسعه یافته است، با عملکرد برجسته در زمینههای مختلف و مناسب برای وظایف پیچیده؛ از افزونه جستجوی بایدو بهطور خودکار پشتیبانی میکند تا اطلاعات بهروز را در پاسخها تضمین کند. در مقایسه با ERNIE 4.0، عملکرد بهتری دارد."
|
52
75
|
},
|
@@ -146,8 +169,8 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 یک سری جدید از مدلهای زبانی بزرگ است که با هدف بهینهسازی پردازش وظایف دستوری طراحی شده است."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
150
|
-
"description": "Qwen2.5-Coder بر
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
173
|
+
"description": "Qwen2.5-Coder بر نوشتن کد تمرکز دارد."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
153
176
|
"description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخهای حرفهای برای مسائل پیچیده ارائه میدهد."
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینهشده برای برنامههای مکالمه را ارائه میدهد."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large بزرگترین مدل MoE با ساختار Transformer متن باز در صنعت است که دارای ۳۸۹۰ میلیارد پارامتر کل و ۵۲۰ میلیارد پارامتر فعال است."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "برای سناریوهای بهرهوری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی میکند و برای کاربردهای حرفهای مناسب است."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "یک راهحل هوش مصنوعی مقرونبهصرفه که برای انواع وظایف متنی و تصویری مناسب است."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "عملکردی معادل Grok 2 دارد، اما با کارایی، سرعت و قابلیتهای بالاتر."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند میدهد."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی بهویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانیمدت در محتوای متنی طولانی مناسب است و میتواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "مدل کد Qwen با قابلیتهای جامع."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "مدل کدنویسی تونگی چیانون."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "مدل 7B متنباز Qwen 2.5 برای استفاده عمومی."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "نسخه
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "نسخه متن باز مدل کد Qwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "نسخه متنباز مدل کدنویسی تونگی چیانون."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) مناسب برای وظایف دقیق دستوری، ارائهدهنده تواناییهای برجسته در پردازش زبان."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet استانداردهای صنعتی را ارتقا داده و عملکردی فراتر از مدلهای رقیب و Claude 3 Opus دارد و در ارزیابیهای گستردهای عملکرد عالی از خود نشان میدهد، در حالی که سرعت و هزینه مدلهای سطح متوسط ما را نیز داراست."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 یک مدل زبانی ارائه شده توسط هوش مصنوعی مایکروسافت است که در مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجستهای دارد."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock یک سرویس ارائه شده توسط آمازون AWS است که بر ارائه مدلهای پیشرفته زبان AI و مدلهای بصری برای شرکتها تمرکز دارد. خانواده مدلهای آن شامل سری Claude از Anthropic، سری Llama 3.1 از Meta و غیره است که از مدلهای سبک تا مدلهای با عملکرد بالا را پوشش میدهد و از وظایفی مانند تولید متن، مکالمه و پردازش تصویر پشتیبانی میکند. این سرویس برای برنامههای شرکتی با مقیاسها و نیازهای مختلف مناسب است."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، تواناییهای مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینههایی مانند همترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "پلتفرم جامع توسعه و خدمات مدلهای بزرگ و برنامههای بومی هوش مصنوعی در سطح سازمانی، ارائهدهنده کاملترین و کاربرپسندترین زنجیره ابزارهای توسعه مدلهای هوش مصنوعی مولد و توسعه برنامهها"
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI یک شرکت است که به ساخت هوش مصنوعی برای تسریع کشفیات علمی بشر اختصاص دارد. مأموریت ما پیشبرد درک مشترک ما از جهان است."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "صفر و یک متعهد به پیشبرد انقلاب فناوری AI 2.0 با محوریت انسان است و هدف آن ایجاد ارزش اقتصادی و اجتماعی عظیم از طریق مدلهای زبانی بزرگ و همچنین ایجاد اکوسیستم جدید هوش مصنوعی و مدلهای تجاری است."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Génération après génération, Meta Llama 3 démontre des performances de pointe sur une large gamme de références industrielles et offre de nouvelles capacités, y compris un raisonnement amélioré."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Modèle de langage ultra-large de premier plan développé par Baidu, ayant réalisé une mise à niveau complète des capacités par rapport à ERNIE 3.5, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant l'actualité des informations de réponse."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Modèle de langage ultra-large de premier plan développé par Baidu, offrant d'excellentes performances globales, largement applicable à des scénarios de tâches complexes dans divers domaines ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il offre de meilleures performances."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Modèle linguistique ultramoderne et de grande taille auto-développé par Baidu, avec d'excellentes performances générales, largement applicable à divers scénarios de tâches complexes ; prend en charge la connexion automatique aux plugins de recherche Baidu pour assurer la pertinence des informations de réponse. Par rapport à ERNIE 4.0, il affiche de meilleures performances."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 est une toute nouvelle série de modèles de langage de grande taille, conçue pour optimiser le traitement des tâches d'instruction."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder se concentre sur la rédaction de code."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large est le plus grand modèle MoE à architecture Transformer open source de l'industrie, avec un total de 389 milliards de paramètres et 52 milliards de paramètres activés."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini est le dernier modèle lancé par OpenAI après le GPT-4 Omni, prenant en charge les entrées multimodales et produisant des sorties textuelles. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que le GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. Le GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus du GPT-4 en termes de préférences de chat."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Offre des performances comparables à Grok 2, mais avec une efficacité, une vitesse et des fonctionnalités supérieures."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Modèle de code Qwen universel."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Le modèle de code Tongyi Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Le modèle de 7B de Tongyi Qwen 2.5, open source."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Version open source du modèle de code
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Version open source du modèle de code Qwen universel."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Version open source du modèle de code Tongyi Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) est adapté aux tâches d'instructions détaillées, offrant d'excellentes capacités de traitement du langage."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock est un service proposé par Amazon AWS, axé sur la fourniture de modèles linguistiques et visuels avancés pour les entreprises. Sa famille de modèles comprend la série Claude d'Anthropic, la série Llama 3.1 de Meta, etc., offrant une variété d'options allant des modèles légers aux modèles haute performance, prenant en charge des tâches telles que la génération de texte, les dialogues et le traitement d'images, adaptées aux applications d'entreprise de différentes tailles et besoins."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek est une entreprise spécialisée dans la recherche et l'application des technologies d'intelligence artificielle, dont le dernier modèle, DeepSeek-V2.5, combine des capacités de dialogue général et de traitement de code, réalisant des améliorations significatives dans l'alignement des préférences humaines, les tâches d'écriture et le suivi des instructions."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Plateforme de développement et de services d'applications AI natives et de modèles de grande envergure, tout-en-un pour les entreprises, offrant la chaîne d'outils la plus complète et facile à utiliser pour le développement de modèles d'intelligence artificielle générative et le développement d'applications."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI est une entreprise dédiée à la construction d'intelligences artificielles pour accélérer les découvertes scientifiques humaines. Notre mission est de promouvoir notre compréhension commune de l'univers."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI se concentre sur les technologies d'intelligence artificielle de l'ère IA 2.0, promouvant activement l'innovation et l'application de \"l'homme + l'intelligence artificielle\", utilisant des modèles puissants et des technologies IA avancées pour améliorer la productivité humaine et réaliser l'autonomisation technologique."
|
90
94
|
},
|