@lobehub/chat 1.36.33 → 1.36.34
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/README.ja-JP.md +150 -115
- package/README.md +63 -28
- package/README.zh-CN.md +65 -30
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +0 -24
- package/locales/ar/providers.json +10 -4
- package/locales/bg-BG/models.json +0 -24
- package/locales/bg-BG/providers.json +10 -4
- package/locales/de-DE/models.json +0 -24
- package/locales/de-DE/providers.json +10 -4
- package/locales/en-US/models.json +0 -24
- package/locales/en-US/providers.json +10 -4
- package/locales/es-ES/models.json +0 -24
- package/locales/es-ES/providers.json +10 -4
- package/locales/fa-IR/models.json +0 -24
- package/locales/fa-IR/providers.json +10 -4
- package/locales/fr-FR/models.json +0 -24
- package/locales/fr-FR/providers.json +10 -4
- package/locales/it-IT/models.json +0 -24
- package/locales/it-IT/providers.json +10 -4
- package/locales/ja-JP/models.json +0 -24
- package/locales/ja-JP/providers.json +10 -4
- package/locales/ko-KR/models.json +0 -24
- package/locales/ko-KR/providers.json +10 -4
- package/locales/nl-NL/models.json +0 -24
- package/locales/nl-NL/providers.json +10 -4
- package/locales/pl-PL/models.json +0 -24
- package/locales/pl-PL/providers.json +10 -4
- package/locales/pt-BR/models.json +0 -24
- package/locales/pt-BR/providers.json +10 -4
- package/locales/ru-RU/models.json +0 -24
- package/locales/ru-RU/providers.json +10 -4
- package/locales/tr-TR/models.json +0 -24
- package/locales/tr-TR/providers.json +10 -4
- package/locales/vi-VN/models.json +0 -24
- package/locales/vi-VN/providers.json +10 -4
- package/locales/zh-CN/models.json +4 -28
- package/locales/zh-CN/providers.json +10 -4
- package/locales/zh-TW/models.json +0 -24
- package/locales/zh-TW/providers.json +10 -4
- package/package.json +1 -1
- package/scripts/readmeWorkflow/const.ts +22 -8
- package/scripts/readmeWorkflow/index.ts +2 -0
- package/scripts/readmeWorkflow/syncAgentIndex.ts +36 -28
- package/scripts/readmeWorkflow/syncPluginIndex.ts +28 -15
- package/scripts/readmeWorkflow/syncProviderIndex.ts +51 -0
- package/scripts/readmeWorkflow/utlis.ts +23 -12
- package/src/config/modelProviders/ai21.ts +1 -0
- package/src/config/modelProviders/cloudflare.ts +1 -2
- package/src/config/modelProviders/higress.ts +2 -1
- package/src/config/modelProviders/sensenova.ts +6 -3
- package/src/features/FileViewer/index.tsx +1 -1
- package/src/locales/default/models.ts +1 -0
- package/src/locales/default/providers.ts +1 -0
@@ -23,20 +23,6 @@
|
|
23
23
|
"4.0Ultra": {
|
24
24
|
"description": "Spark4.0 Ultra ist die leistungsstärkste Version der Spark-Großmodellreihe, die die Online-Suchverbindung aktualisiert und die Fähigkeit zur Textverständnis und -zusammenfassung verbessert. Es ist eine umfassende Lösung zur Steigerung der Büroproduktivität und zur genauen Reaktion auf Anforderungen und ein führendes intelligentes Produkt in der Branche."
|
25
25
|
},
|
26
|
-
"@cf/meta/llama-3-8b-instruct-awq": {},
|
27
|
-
"@cf/openchat/openchat-3.5-0106": {},
|
28
|
-
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
29
|
-
"@hf/google/gemma-7b-it": {},
|
30
|
-
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
31
|
-
"description": "Generation über Generation zeigt Meta Llama 3 eine Spitzenleistung in einer Vielzahl von Branchenbenchmarks und bietet neue Fähigkeiten, einschließlich verbesserter Argumentation."
|
32
|
-
},
|
33
|
-
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
34
|
-
"@hf/nexusflow/starling-lm-7b-beta": {},
|
35
|
-
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
36
|
-
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
37
|
-
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
38
|
-
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
39
|
-
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
40
26
|
"Baichuan2-Turbo": {
|
41
27
|
"description": "Verwendet Suchverbesserungstechnologie, um eine umfassende Verknüpfung zwischen großen Modellen und Fachwissen sowie Wissen aus dem gesamten Internet zu ermöglichen. Unterstützt das Hochladen von Dokumenten wie PDF, Word und die Eingabe von URLs, um Informationen zeitnah und umfassend zu erhalten, mit genauen und professionellen Ergebnissen."
|
42
28
|
},
|
@@ -127,7 +113,6 @@
|
|
127
113
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
128
114
|
"description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten."
|
129
115
|
},
|
130
|
-
"NousResearch/Hermes-3-Llama-3.1-8B": {},
|
131
116
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
132
117
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) ist ein hochpräzises Anweisungsmodell, das für komplexe Berechnungen geeignet ist."
|
133
118
|
},
|
@@ -530,9 +515,6 @@
|
|
530
515
|
"cohere-command-r-plus": {
|
531
516
|
"description": "Command R+ ist ein hochmodernes, RAG-optimiertes Modell, das für unternehmensgerechte Arbeitslasten konzipiert ist."
|
532
517
|
},
|
533
|
-
"command-light": {
|
534
|
-
"description": ""
|
535
|
-
},
|
536
518
|
"command-r": {
|
537
519
|
"description": "Command R ist ein LLM, das für Dialoge und Aufgaben mit langen Kontexten optimiert ist und sich besonders gut für dynamische Interaktionen und Wissensmanagement eignet."
|
538
520
|
},
|
@@ -794,9 +776,6 @@
|
|
794
776
|
"hunyuan-functioncall": {
|
795
777
|
"description": "Das neueste MOE-Architektur-FunctionCall-Modell von Hunyuan, das mit hochwertigen FunctionCall-Daten trainiert wurde, hat ein Kontextfenster von 32K und führt in mehreren Bewertungsmetriken."
|
796
778
|
},
|
797
|
-
"hunyuan-large": {
|
798
|
-
"description": ""
|
799
|
-
},
|
800
779
|
"hunyuan-lite": {
|
801
780
|
"description": "Aufgerüstet auf eine MOE-Struktur mit einem Kontextfenster von 256k, führt es in mehreren Bewertungssets in NLP, Code, Mathematik und Industrie zahlreiche Open-Source-Modelle an."
|
802
781
|
},
|
@@ -830,8 +809,6 @@
|
|
830
809
|
"internlm2.5-latest": {
|
831
810
|
"description": "Unsere neueste Modellreihe mit herausragender Schlussfolgerungsleistung, die eine Kontextlänge von 1M unterstützt und über verbesserte Anweisungsbefolgung und Toolaufrufmöglichkeiten verfügt."
|
832
811
|
},
|
833
|
-
"jamba-1.5-large": {},
|
834
|
-
"jamba-1.5-mini": {},
|
835
812
|
"learnlm-1.5-pro-experimental": {
|
836
813
|
"description": "LearnLM ist ein experimentelles, aufgabenorientiertes Sprachmodell, das darauf trainiert wurde, den Prinzipien der Lernwissenschaft zu entsprechen und in Lehr- und Lernszenarien systematische Anweisungen zu befolgen, als Expertenmentor zu fungieren usw."
|
837
814
|
},
|
@@ -1027,7 +1004,6 @@
|
|
1027
1004
|
"meta.llama3-8b-instruct-v1:0": {
|
1028
1005
|
"description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für Umgebungen mit begrenzter Rechenleistung und Ressourcen, für Edge-Geräte und schnellere Trainingszeiten."
|
1029
1006
|
},
|
1030
|
-
"microsoft/Phi-3.5-mini-instruct": {},
|
1031
1007
|
"microsoft/WizardLM-2-8x22B": {
|
1032
1008
|
"description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, Mehrsprachigkeit, Inferenz und intelligenten Assistenten besonders gut abschneidet."
|
1033
1009
|
},
|
@@ -1,5 +1,7 @@
|
|
1
1
|
{
|
2
|
-
"ai21": {
|
2
|
+
"ai21": {
|
3
|
+
"description": "AI21 Labs entwickelt Basis-Modelle und KI-Systeme für Unternehmen und beschleunigt die Anwendung generativer KI in der Produktion."
|
4
|
+
},
|
3
5
|
"ai360": {
|
4
6
|
"description": "360 AI ist die von der 360 Company eingeführte Plattform für KI-Modelle und -Dienste, die eine Vielzahl fortschrittlicher Modelle zur Verarbeitung natürlicher Sprache anbietet, darunter 360GPT2 Pro, 360GPT Pro, 360GPT Turbo und 360GPT Turbo Responsibility 8K. Diese Modelle kombinieren große Parameter mit multimodalen Fähigkeiten und finden breite Anwendung in den Bereichen Textgenerierung, semantisches Verständnis, Dialogsysteme und Codegenerierung. Durch flexible Preisstrategien erfüllt 360 AI die vielfältigen Bedürfnisse der Nutzer, unterstützt Entwickler bei der Integration und fördert die Innovation und Entwicklung intelligenter Anwendungen."
|
5
7
|
},
|
@@ -15,7 +17,9 @@
|
|
15
17
|
"bedrock": {
|
16
18
|
"description": "Bedrock ist ein Service von Amazon AWS, der sich darauf konzentriert, Unternehmen fortschrittliche KI-Sprach- und visuelle Modelle bereitzustellen. Die Modellfamilie umfasst die Claude-Serie von Anthropic, die Llama 3.1-Serie von Meta und mehr, und bietet eine Vielzahl von Optionen von leichtgewichtig bis hochleistungsfähig, die Textgenerierung, Dialoge, Bildverarbeitung und andere Aufgaben unterstützen und für Unternehmensanwendungen unterschiedlicher Größen und Anforderungen geeignet sind."
|
17
19
|
},
|
18
|
-
"cloudflare": {
|
20
|
+
"cloudflare": {
|
21
|
+
"description": "Führen Sie von serverlosen GPUs betriebene Machine-Learning-Modelle im globalen Netzwerk von Cloudflare aus."
|
22
|
+
},
|
19
23
|
"deepseek": {
|
20
24
|
"description": "DeepSeek ist ein Unternehmen, das sich auf die Forschung und Anwendung von KI-Technologien spezialisiert hat. Ihr neuestes Modell, DeepSeek-V2.5, kombiniert allgemeine Dialog- und Codeverarbeitungsfähigkeiten und hat signifikante Fortschritte in den Bereichen menschliche Präferenzanpassung, Schreibaufgaben und Befehlsbefolgung erzielt."
|
21
25
|
},
|
@@ -35,7 +39,7 @@
|
|
35
39
|
"description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung."
|
36
40
|
},
|
37
41
|
"higress": {
|
38
|
-
"description": ""
|
42
|
+
"description": "Higress ist ein cloud-natives API-Gateway, das intern bei Alibaba entwickelt wurde, um die Probleme von Tengine Reload bei langanhaltenden Verbindungen zu lösen und die unzureichenden Lastverteilungsmöglichkeiten von gRPC/Dubbo zu verbessern."
|
39
43
|
},
|
40
44
|
"huggingface": {
|
41
45
|
"description": "Die HuggingFace Inference API bietet eine schnelle und kostenlose Möglichkeit, Tausende von Modellen für verschiedene Aufgaben zu erkunden. Egal, ob Sie Prototypen für neue Anwendungen erstellen oder die Funktionen des maschinellen Lernens ausprobieren, diese API ermöglicht Ihnen den sofortigen Zugriff auf leistungsstarke Modelle aus verschiedenen Bereichen."
|
@@ -73,7 +77,9 @@
|
|
73
77
|
"qwen": {
|
74
78
|
"description": "Tongyi Qianwen ist ein von Alibaba Cloud selbst entwickeltes, groß angelegtes Sprachmodell mit starken Fähigkeiten zur Verarbeitung und Generierung natürlicher Sprache. Es kann eine Vielzahl von Fragen beantworten, Texte erstellen, Meinungen äußern und Code schreiben und spielt in mehreren Bereichen eine Rolle."
|
75
79
|
},
|
76
|
-
"sensenova": {
|
80
|
+
"sensenova": {
|
81
|
+
"description": "SenseTime bietet mit der starken Basisunterstützung von SenseTimes großem Gerät effiziente und benutzerfreundliche Full-Stack-Modelldienste."
|
82
|
+
},
|
77
83
|
"siliconcloud": {
|
78
84
|
"description": "SiliconFlow hat sich zum Ziel gesetzt, AGI zu beschleunigen, um der Menschheit zu dienen, und die Effizienz großangelegter KI durch eine benutzerfreundliche und kostengünstige GenAI-Stack zu steigern."
|
79
85
|
},
|
@@ -23,20 +23,6 @@
|
|
23
23
|
"4.0Ultra": {
|
24
24
|
"description": "Spark4.0 Ultra is the most powerful version in the Spark large model series, enhancing text content understanding and summarization capabilities while upgrading online search links. It is a comprehensive solution for improving office productivity and accurately responding to demands, leading the industry as an intelligent product."
|
25
25
|
},
|
26
|
-
"@cf/meta/llama-3-8b-instruct-awq": {},
|
27
|
-
"@cf/openchat/openchat-3.5-0106": {},
|
28
|
-
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
29
|
-
"@hf/google/gemma-7b-it": {},
|
30
|
-
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
31
|
-
"description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
|
32
|
-
},
|
33
|
-
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
34
|
-
"@hf/nexusflow/starling-lm-7b-beta": {},
|
35
|
-
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
36
|
-
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
37
|
-
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
38
|
-
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
39
|
-
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
40
26
|
"Baichuan2-Turbo": {
|
41
27
|
"description": "Utilizes search enhancement technology to achieve comprehensive links between large models and domain knowledge, as well as knowledge from the entire web. Supports uploads of various documents such as PDF and Word, and URL input, providing timely and comprehensive information retrieval with accurate and professional output."
|
42
28
|
},
|
@@ -127,7 +113,6 @@
|
|
127
113
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
128
114
|
"description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience."
|
129
115
|
},
|
130
|
-
"NousResearch/Hermes-3-Llama-3.1-8B": {},
|
131
116
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
132
117
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is a high-precision instruction model suitable for complex computations."
|
133
118
|
},
|
@@ -530,9 +515,6 @@
|
|
530
515
|
"cohere-command-r-plus": {
|
531
516
|
"description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads."
|
532
517
|
},
|
533
|
-
"command-light": {
|
534
|
-
"description": ""
|
535
|
-
},
|
536
518
|
"command-r": {
|
537
519
|
"description": "Command R is an LLM optimized for dialogue and long context tasks, particularly suitable for dynamic interactions and knowledge management."
|
538
520
|
},
|
@@ -794,9 +776,6 @@
|
|
794
776
|
"hunyuan-functioncall": {
|
795
777
|
"description": "The latest MOE architecture FunctionCall model from Hunyuan, trained on high-quality FunctionCall data, with a context window of 32K, leading in multiple dimensions of evaluation metrics."
|
796
778
|
},
|
797
|
-
"hunyuan-large": {
|
798
|
-
"description": ""
|
799
|
-
},
|
800
779
|
"hunyuan-lite": {
|
801
780
|
"description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks."
|
802
781
|
},
|
@@ -830,8 +809,6 @@
|
|
830
809
|
"internlm2.5-latest": {
|
831
810
|
"description": "Our latest model series, featuring exceptional reasoning performance, supporting a context length of 1M, and enhanced instruction following and tool invocation capabilities."
|
832
811
|
},
|
833
|
-
"jamba-1.5-large": {},
|
834
|
-
"jamba-1.5-mini": {},
|
835
812
|
"learnlm-1.5-pro-experimental": {
|
836
813
|
"description": "LearnLM is an experimental, task-specific language model trained to align with learning science principles, capable of following systematic instructions in teaching and learning scenarios, acting as an expert tutor, among other roles."
|
837
814
|
},
|
@@ -1027,7 +1004,6 @@
|
|
1027
1004
|
"meta.llama3-8b-instruct-v1:0": {
|
1028
1005
|
"description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for those with limited computational power and resources, edge devices, and faster training times."
|
1029
1006
|
},
|
1030
|
-
"microsoft/Phi-3.5-mini-instruct": {},
|
1031
1007
|
"microsoft/WizardLM-2-8x22B": {
|
1032
1008
|
"description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant tasks."
|
1033
1009
|
},
|
@@ -1,5 +1,7 @@
|
|
1
1
|
{
|
2
|
-
"ai21": {
|
2
|
+
"ai21": {
|
3
|
+
"description": "AI21 Labs builds foundational models and AI systems for enterprises, accelerating the application of generative AI in production."
|
4
|
+
},
|
3
5
|
"ai360": {
|
4
6
|
"description": "360 AI is an AI model and service platform launched by 360 Company, offering various advanced natural language processing models, including 360GPT2 Pro, 360GPT Pro, 360GPT Turbo, and 360GPT Turbo Responsibility 8K. These models combine large-scale parameters and multimodal capabilities, widely applied in text generation, semantic understanding, dialogue systems, and code generation. With flexible pricing strategies, 360 AI meets diverse user needs, supports developer integration, and promotes the innovation and development of intelligent applications."
|
5
7
|
},
|
@@ -15,7 +17,9 @@
|
|
15
17
|
"bedrock": {
|
16
18
|
"description": "Bedrock is a service provided by Amazon AWS, focusing on delivering advanced AI language and visual models for enterprises. Its model family includes Anthropic's Claude series, Meta's Llama 3.1 series, and more, offering a range of options from lightweight to high-performance, supporting tasks such as text generation, conversation, and image processing for businesses of varying scales and needs."
|
17
19
|
},
|
18
|
-
"cloudflare": {
|
20
|
+
"cloudflare": {
|
21
|
+
"description": "Run serverless GPU-powered machine learning models on Cloudflare's global network."
|
22
|
+
},
|
19
23
|
"deepseek": {
|
20
24
|
"description": "DeepSeek is a company focused on AI technology research and application, with its latest model DeepSeek-V2.5 integrating general dialogue and code processing capabilities, achieving significant improvements in human preference alignment, writing tasks, and instruction following."
|
21
25
|
},
|
@@ -35,7 +39,7 @@
|
|
35
39
|
"description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments."
|
36
40
|
},
|
37
41
|
"higress": {
|
38
|
-
"description": ""
|
42
|
+
"description": "Higress is a cloud-native API gateway that was developed internally at Alibaba to address the issues of Tengine reload affecting long-lived connections and the insufficient load balancing capabilities for gRPC/Dubbo."
|
39
43
|
},
|
40
44
|
"huggingface": {
|
41
45
|
"description": "The HuggingFace Inference API provides a fast and free way for you to explore thousands of models for various tasks. Whether you are prototyping for a new application or experimenting with the capabilities of machine learning, this API gives you instant access to high-performance models across multiple domains."
|
@@ -73,7 +77,9 @@
|
|
73
77
|
"qwen": {
|
74
78
|
"description": "Tongyi Qianwen is a large-scale language model independently developed by Alibaba Cloud, featuring strong natural language understanding and generation capabilities. It can answer various questions, create written content, express opinions, and write code, playing a role in multiple fields."
|
75
79
|
},
|
76
|
-
"sensenova": {
|
80
|
+
"sensenova": {
|
81
|
+
"description": "SenseNova, backed by SenseTime's robust infrastructure, offers efficient and user-friendly full-stack large model services."
|
82
|
+
},
|
77
83
|
"siliconcloud": {
|
78
84
|
"description": "SiliconFlow is dedicated to accelerating AGI for the benefit of humanity, enhancing large-scale AI efficiency through an easy-to-use and cost-effective GenAI stack."
|
79
85
|
},
|
@@ -23,20 +23,6 @@
|
|
23
23
|
"4.0Ultra": {
|
24
24
|
"description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria."
|
25
25
|
},
|
26
|
-
"@cf/meta/llama-3-8b-instruct-awq": {},
|
27
|
-
"@cf/openchat/openchat-3.5-0106": {},
|
28
|
-
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
29
|
-
"@hf/google/gemma-7b-it": {},
|
30
|
-
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
31
|
-
"description": "Generación tras generación, Meta Llama 3 demuestra un rendimiento de vanguardia en una amplia gama de benchmarks de la industria y ofrece nuevas capacidades, incluyendo un razonamiento mejorado."
|
32
|
-
},
|
33
|
-
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
34
|
-
"@hf/nexusflow/starling-lm-7b-beta": {},
|
35
|
-
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
36
|
-
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
37
|
-
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
38
|
-
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
39
|
-
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
40
26
|
"Baichuan2-Turbo": {
|
41
27
|
"description": "Utiliza tecnología de búsqueda mejorada para lograr un enlace completo entre el gran modelo y el conocimiento del dominio, así como el conocimiento de toda la red. Soporta la carga de documentos en PDF, Word y otros formatos, así como la entrada de URL, proporcionando información oportuna y completa, con resultados precisos y profesionales."
|
42
28
|
},
|
@@ -127,7 +113,6 @@
|
|
127
113
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
128
114
|
"description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional."
|
129
115
|
},
|
130
|
-
"NousResearch/Hermes-3-Llama-3.1-8B": {},
|
131
116
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
132
117
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) es un modelo de instrucciones de alta precisión, adecuado para cálculos complejos."
|
133
118
|
},
|
@@ -530,9 +515,6 @@
|
|
530
515
|
"cohere-command-r-plus": {
|
531
516
|
"description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial."
|
532
517
|
},
|
533
|
-
"command-light": {
|
534
|
-
"description": ""
|
535
|
-
},
|
536
518
|
"command-r": {
|
537
519
|
"description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento."
|
538
520
|
},
|
@@ -794,9 +776,6 @@
|
|
794
776
|
"hunyuan-functioncall": {
|
795
777
|
"description": "El último modelo FunctionCall de Hunyuan con arquitectura MOE, entrenado con datos de FunctionCall de alta calidad, con una ventana de contexto de 32K, liderando en múltiples dimensiones de métricas de evaluación."
|
796
778
|
},
|
797
|
-
"hunyuan-large": {
|
798
|
-
"description": ""
|
799
|
-
},
|
800
779
|
"hunyuan-lite": {
|
801
780
|
"description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto."
|
802
781
|
},
|
@@ -830,8 +809,6 @@
|
|
830
809
|
"internlm2.5-latest": {
|
831
810
|
"description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas."
|
832
811
|
},
|
833
|
-
"jamba-1.5-large": {},
|
834
|
-
"jamba-1.5-mini": {},
|
835
812
|
"learnlm-1.5-pro-experimental": {
|
836
813
|
"description": "LearnLM es un modelo de lenguaje experimental y específico para tareas, entrenado para cumplir con los principios de la ciencia del aprendizaje, capaz de seguir instrucciones sistemáticas en escenarios de enseñanza y aprendizaje, actuando como un tutor experto, entre otros."
|
837
814
|
},
|
@@ -1027,7 +1004,6 @@
|
|
1027
1004
|
"meta.llama3-8b-instruct-v1:0": {
|
1028
1005
|
"description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos."
|
1029
1006
|
},
|
1030
|
-
"microsoft/Phi-3.5-mini-instruct": {},
|
1031
1007
|
"microsoft/WizardLM-2-8x22B": {
|
1032
1008
|
"description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes."
|
1033
1009
|
},
|
@@ -1,5 +1,7 @@
|
|
1
1
|
{
|
2
|
-
"ai21": {
|
2
|
+
"ai21": {
|
3
|
+
"description": "AI21 Labs construye modelos fundamentales y sistemas de inteligencia artificial para empresas, acelerando la aplicación de la inteligencia artificial generativa en producción."
|
4
|
+
},
|
3
5
|
"ai360": {
|
4
6
|
"description": "360 AI es una plataforma de modelos y servicios de IA lanzada por la empresa 360, que ofrece una variedad de modelos avanzados de procesamiento del lenguaje natural, incluidos 360GPT2 Pro, 360GPT Pro, 360GPT Turbo y 360GPT Turbo Responsibility 8K. Estos modelos combinan parámetros a gran escala y capacidades multimodales, siendo ampliamente utilizados en generación de texto, comprensión semántica, sistemas de diálogo y generación de código. A través de una estrategia de precios flexible, 360 AI satisface diversas necesidades de los usuarios, apoyando la integración de desarrolladores y promoviendo la innovación y desarrollo de aplicaciones inteligentes."
|
5
7
|
},
|
@@ -15,7 +17,9 @@
|
|
15
17
|
"bedrock": {
|
16
18
|
"description": "Bedrock es un servicio proporcionado por Amazon AWS, enfocado en ofrecer modelos de lenguaje y visuales avanzados para empresas. Su familia de modelos incluye la serie Claude de Anthropic, la serie Llama 3.1 de Meta, entre otros, abarcando una variedad de opciones desde ligeras hasta de alto rendimiento, apoyando tareas como generación de texto, diálogos y procesamiento de imágenes, adecuadas para aplicaciones empresariales de diferentes escalas y necesidades."
|
17
19
|
},
|
18
|
-
"cloudflare": {
|
20
|
+
"cloudflare": {
|
21
|
+
"description": "Ejecuta modelos de aprendizaje automático impulsados por GPU sin servidor en la red global de Cloudflare."
|
22
|
+
},
|
19
23
|
"deepseek": {
|
20
24
|
"description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones."
|
21
25
|
},
|
@@ -35,7 +39,7 @@
|
|
35
39
|
"description": "El motor de inferencia LPU de Groq ha demostrado un rendimiento excepcional en las pruebas de referencia de modelos de lenguaje de gran tamaño (LLM), redefiniendo los estándares de soluciones de IA con su asombrosa velocidad y eficiencia. Groq es un referente en velocidad de inferencia instantánea, mostrando un buen rendimiento en implementaciones basadas en la nube."
|
36
40
|
},
|
37
41
|
"higress": {
|
38
|
-
"description": ""
|
42
|
+
"description": "Higress es una puerta de enlace API nativa de la nube, que nació en Alibaba para resolver los problemas que el recargado de Tengine causa en los negocios de conexiones largas, así como la insuficiencia de la capacidad de balanceo de carga de gRPC/Dubbo."
|
39
43
|
},
|
40
44
|
"huggingface": {
|
41
45
|
"description": "La API de Inferencia de HuggingFace ofrece una forma rápida y gratuita de explorar miles de modelos para diversas tareas. Ya sea que esté prototipando una nueva aplicación o probando las capacidades del aprendizaje automático, esta API le brinda acceso instantáneo a modelos de alto rendimiento en múltiples dominios."
|
@@ -73,7 +77,9 @@
|
|
73
77
|
"qwen": {
|
74
78
|
"description": "Tongyi Qianwen es un modelo de lenguaje de gran escala desarrollado de forma independiente por Alibaba Cloud, con potentes capacidades de comprensión y generación de lenguaje natural. Puede responder a diversas preguntas, crear contenido escrito, expresar opiniones y redactar código, desempeñando un papel en múltiples campos."
|
75
79
|
},
|
76
|
-
"sensenova": {
|
80
|
+
"sensenova": {
|
81
|
+
"description": "SenseTime ofrece servicios de modelos grandes de pila completa, aprovechando el sólido soporte de la gran infraestructura de SenseTime."
|
82
|
+
},
|
77
83
|
"siliconcloud": {
|
78
84
|
"description": "SiliconFlow se dedica a acelerar la AGI para beneficiar a la humanidad, mejorando la eficiencia de la IA a gran escala a través de un stack GenAI fácil de usar y de bajo costo."
|
79
85
|
},
|
@@ -23,20 +23,6 @@
|
|
23
23
|
"4.0Ultra": {
|
24
24
|
"description": "Spark Ultra قدرتمندترین نسخه از سری مدلهای بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصهسازی محتوای متنی را بهبود میبخشد. این یک راهحل جامع برای افزایش بهرهوری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته میشود."
|
25
25
|
},
|
26
|
-
"@cf/meta/llama-3-8b-instruct-awq": {},
|
27
|
-
"@cf/openchat/openchat-3.5-0106": {},
|
28
|
-
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
29
|
-
"@hf/google/gemma-7b-it": {},
|
30
|
-
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
31
|
-
"description": "نسل به نسل، Meta Llama 3 عملکردی پیشرفته در طیف وسیعی از معیارهای صنعتی نشان میدهد و قابلیتهای جدیدی از جمله بهبود در استدلال را ارائه میدهد."
|
32
|
-
},
|
33
|
-
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
34
|
-
"@hf/nexusflow/starling-lm-7b-beta": {},
|
35
|
-
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
36
|
-
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
37
|
-
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
38
|
-
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
39
|
-
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
40
26
|
"Baichuan2-Turbo": {
|
41
27
|
"description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزهای و دانش کل وب متصل میکند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرسهای وب پشتیبانی میکند. اطلاعات بهموقع و جامع دریافت میشود و نتایج خروجی دقیق و حرفهای هستند."
|
42
28
|
},
|
@@ -127,7 +113,6 @@
|
|
127
113
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
128
114
|
"description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطافپذیر است که برای ارائه تجربهای خلاقانه و برجسته طراحی شده است."
|
129
115
|
},
|
130
|
-
"NousResearch/Hermes-3-Llama-3.1-8B": {},
|
131
116
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
132
117
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
|
133
118
|
},
|
@@ -530,9 +515,6 @@
|
|
530
515
|
"cohere-command-r-plus": {
|
531
516
|
"description": "Command R+ یک مدل پیشرفته بهینهسازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
|
532
517
|
},
|
533
|
-
"command-light": {
|
534
|
-
"description": ""
|
535
|
-
},
|
536
518
|
"command-r": {
|
537
519
|
"description": "Command R یک LLM بهینهسازی شده برای مکالمات و وظایف با متن طولانی است که بهویژه برای تعاملات پویا و مدیریت دانش مناسب است."
|
538
520
|
},
|
@@ -794,9 +776,6 @@
|
|
794
776
|
"hunyuan-functioncall": {
|
795
777
|
"description": "مدل FunctionCall با معماری MOE جدید Hunyuan، آموزشدیده با دادههای باکیفیت FunctionCall، با پنجره متنی تا 32K و پیشرو در چندین شاخص ارزیابی."
|
796
778
|
},
|
797
|
-
"hunyuan-large": {
|
798
|
-
"description": ""
|
799
|
-
},
|
800
779
|
"hunyuan-lite": {
|
801
780
|
"description": "به ساختار MOE ارتقا یافته است، پنجره متنی 256k دارد و در چندین مجموعه ارزیابی در زمینههای NLP، کد، ریاضیات و صنایع از بسیاری از مدلهای متنباز پیشی گرفته است."
|
802
781
|
},
|
@@ -830,8 +809,6 @@
|
|
830
809
|
"internlm2.5-latest": {
|
831
810
|
"description": "جدیدترین سری مدلهای ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی میکند و تواناییهای قویتری در پیروی از دستورات و فراخوانی ابزارها دارد."
|
832
811
|
},
|
833
|
-
"jamba-1.5-large": {},
|
834
|
-
"jamba-1.5-mini": {},
|
835
812
|
"learnlm-1.5-pro-experimental": {
|
836
813
|
"description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و میتواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
|
837
814
|
},
|
@@ -1027,7 +1004,6 @@
|
|
1027
1004
|
"meta.llama3-8b-instruct-v1:0": {
|
1028
1005
|
"description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعهدهندگان، پژوهشگران و شرکتها طراحی شده است تا به آنها در ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاههای با توان محاسباتی و منابع محدود، دستگاههای لبه و زمانهای آموزش سریعتر بسیار مناسب است."
|
1029
1006
|
},
|
1030
|
-
"microsoft/Phi-3.5-mini-instruct": {},
|
1031
1007
|
"microsoft/WizardLM-2-8x22B": {
|
1032
1008
|
"description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینههای گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
|
1033
1009
|
},
|
@@ -1,5 +1,7 @@
|
|
1
1
|
{
|
2
|
-
"ai21": {
|
2
|
+
"ai21": {
|
3
|
+
"description": "AI21 Labs مدلهای پایه و سیستمهای هوش مصنوعی را برای کسبوکارها ایجاد میکند و به تسریع کاربرد هوش مصنوعی تولیدی در تولید کمک میکند."
|
4
|
+
},
|
3
5
|
"ai360": {
|
4
6
|
"description": "360 AI پلتفرم مدلها و خدمات هوش مصنوعی شرکت 360 است که مدلهای پیشرفته پردازش زبان طبیعی متعددی از جمله 360GPT2 Pro، 360GPT Pro، 360GPT Turbo و 360GPT Turbo Responsibility 8K را ارائه میدهد. این مدلها با ترکیب پارامترهای بزرگمقیاس و قابلیتهای چندوجهی، به طور گسترده در زمینههای تولید متن، درک معنایی، سیستمهای مکالمه و تولید کد به کار میروند. با استفاده از استراتژیهای قیمتگذاری انعطافپذیر، 360 AI نیازهای متنوع کاربران را برآورده کرده و از یکپارچهسازی توسعهدهندگان پشتیبانی میکند و به نوآوری و توسعه کاربردهای هوشمند کمک میکند."
|
5
7
|
},
|
@@ -15,7 +17,9 @@
|
|
15
17
|
"bedrock": {
|
16
18
|
"description": "Bedrock یک سرویس ارائه شده توسط آمازون AWS است که بر ارائه مدلهای پیشرفته زبان AI و مدلهای بصری برای شرکتها تمرکز دارد. خانواده مدلهای آن شامل سری Claude از Anthropic، سری Llama 3.1 از Meta و غیره است که از مدلهای سبک تا مدلهای با عملکرد بالا را پوشش میدهد و از وظایفی مانند تولید متن، مکالمه و پردازش تصویر پشتیبانی میکند. این سرویس برای برنامههای شرکتی با مقیاسها و نیازهای مختلف مناسب است."
|
17
19
|
},
|
18
|
-
"cloudflare": {
|
20
|
+
"cloudflare": {
|
21
|
+
"description": "مدلهای یادگیری ماشین مبتنی بر GPU بدون سرور را در شبکه جهانی Cloudflare اجرا کنید."
|
22
|
+
},
|
19
23
|
"deepseek": {
|
20
24
|
"description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، تواناییهای مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینههایی مانند همترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است."
|
21
25
|
},
|
@@ -35,7 +39,7 @@
|
|
35
39
|
"description": "موتور استنتاج LPU شرکت Groq در آخرین آزمونهای معیار مدلهای زبانی بزرگ (LLM) مستقل عملکرد برجستهای داشته و با سرعت و کارایی شگفتانگیز خود، استانداردهای راهحلهای هوش مصنوعی را بازتعریف کرده است. Groq نمادی از سرعت استنتاج فوری است و در استقرارهای مبتنی بر ابر عملکرد خوبی از خود نشان داده است."
|
36
40
|
},
|
37
41
|
"higress": {
|
38
|
-
"description": ""
|
42
|
+
"description": "Higress یک دروازه API ابری است که برای حل مشکلات مربوط به بارگذاری مجدد Tengine در کسب و کارهای با اتصالات طولانی و همچنین کمبود قابلیتهای تعادل بار gRPC/Dubbo در داخل علی ایجاد شده است."
|
39
43
|
},
|
40
44
|
"huggingface": {
|
41
45
|
"description": "API استنتاج HuggingFace یک روش سریع و رایگان برای کاوش هزاران مدل برای وظایف مختلف ارائه میدهد. چه در حال طراحی نمونه اولیه برای یک برنامه جدید باشید و چه در حال آزمایش قابلیتهای یادگیری ماشین، این API به شما امکان دسترسی فوری به مدلهای با عملکرد بالا در چندین حوزه را میدهد."
|
@@ -73,7 +77,9 @@
|
|
73
77
|
"qwen": {
|
74
78
|
"description": "چوان یی چیان ون یک مدل زبان بسیار بزرگ است که توسط علیکلود بهطور مستقل توسعه یافته و دارای تواناییهای قدرتمند درک و تولید زبان طبیعی است. این مدل میتواند به انواع سوالات پاسخ دهد، محتوای متنی خلق کند، نظرات و دیدگاهها را بیان کند، کد بنویسد و در حوزههای مختلف نقش ایفا کند."
|
75
79
|
},
|
76
|
-
"sensenova": {
|
80
|
+
"sensenova": {
|
81
|
+
"description": "سنسنووا، با تکیه بر زیرساختهای قوی سنستک، خدمات مدلهای بزرگ تمامپشتهای را بهصورت کارآمد و آسان ارائه میدهد."
|
82
|
+
},
|
77
83
|
"siliconcloud": {
|
78
84
|
"description": "SiliconCloud، یک سرویس ابری GenAI با کارایی بالا و مقرونبهصرفه بر اساس مدلهای منبعباز برجسته"
|
79
85
|
},
|
@@ -23,20 +23,6 @@
|
|
23
23
|
"4.0Ultra": {
|
24
24
|
"description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
|
25
25
|
},
|
26
|
-
"@cf/meta/llama-3-8b-instruct-awq": {},
|
27
|
-
"@cf/openchat/openchat-3.5-0106": {},
|
28
|
-
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
29
|
-
"@hf/google/gemma-7b-it": {},
|
30
|
-
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
31
|
-
"description": "Génération après génération, Meta Llama 3 démontre des performances de pointe sur une large gamme de références industrielles et offre de nouvelles capacités, y compris un raisonnement amélioré."
|
32
|
-
},
|
33
|
-
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
34
|
-
"@hf/nexusflow/starling-lm-7b-beta": {},
|
35
|
-
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
36
|
-
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
37
|
-
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
38
|
-
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
39
|
-
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
40
26
|
"Baichuan2-Turbo": {
|
41
27
|
"description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels."
|
42
28
|
},
|
@@ -127,7 +113,6 @@
|
|
127
113
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
128
114
|
"description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
|
129
115
|
},
|
130
|
-
"NousResearch/Hermes-3-Llama-3.1-8B": {},
|
131
116
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
132
117
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes."
|
133
118
|
},
|
@@ -530,9 +515,6 @@
|
|
530
515
|
"cohere-command-r-plus": {
|
531
516
|
"description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise."
|
532
517
|
},
|
533
|
-
"command-light": {
|
534
|
-
"description": ""
|
535
|
-
},
|
536
518
|
"command-r": {
|
537
519
|
"description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances."
|
538
520
|
},
|
@@ -794,9 +776,6 @@
|
|
794
776
|
"hunyuan-functioncall": {
|
795
777
|
"description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
|
796
778
|
},
|
797
|
-
"hunyuan-large": {
|
798
|
-
"description": ""
|
799
|
-
},
|
800
779
|
"hunyuan-lite": {
|
801
780
|
"description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
|
802
781
|
},
|
@@ -830,8 +809,6 @@
|
|
830
809
|
"internlm2.5-latest": {
|
831
810
|
"description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils."
|
832
811
|
},
|
833
|
-
"jamba-1.5-large": {},
|
834
|
-
"jamba-1.5-mini": {},
|
835
812
|
"learnlm-1.5-pro-experimental": {
|
836
813
|
"description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
|
837
814
|
},
|
@@ -1027,7 +1004,6 @@
|
|
1027
1004
|
"meta.llama3-8b-instruct-v1:0": {
|
1028
1005
|
"description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides."
|
1029
1006
|
},
|
1030
|
-
"microsoft/Phi-3.5-mini-instruct": {},
|
1031
1007
|
"microsoft/WizardLM-2-8x22B": {
|
1032
1008
|
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
|
1033
1009
|
},
|
@@ -1,5 +1,7 @@
|
|
1
1
|
{
|
2
|
-
"ai21": {
|
2
|
+
"ai21": {
|
3
|
+
"description": "AI21 Labs construit des modèles de base et des systèmes d'intelligence artificielle pour les entreprises, accélérant l'application de l'intelligence artificielle générative en production."
|
4
|
+
},
|
3
5
|
"ai360": {
|
4
6
|
"description": "360 AI est une plateforme de modèles et de services IA lancée par la société 360, offrant divers modèles avancés de traitement du langage naturel, y compris 360GPT2 Pro, 360GPT Pro, 360GPT Turbo et 360GPT Turbo Responsibility 8K. Ces modèles combinent de grands paramètres et des capacités multimodales, largement utilisés dans la génération de texte, la compréhension sémantique, les systèmes de dialogue et la génération de code. Grâce à une stratégie de tarification flexible, 360 AI répond à des besoins variés des utilisateurs, soutenant l'intégration des développeurs et favorisant l'innovation et le développement des applications intelligentes."
|
5
7
|
},
|
@@ -15,7 +17,9 @@
|
|
15
17
|
"bedrock": {
|
16
18
|
"description": "Bedrock est un service proposé par Amazon AWS, axé sur la fourniture de modèles linguistiques et visuels avancés pour les entreprises. Sa famille de modèles comprend la série Claude d'Anthropic, la série Llama 3.1 de Meta, etc., offrant une variété d'options allant des modèles légers aux modèles haute performance, prenant en charge des tâches telles que la génération de texte, les dialogues et le traitement d'images, adaptées aux applications d'entreprise de différentes tailles et besoins."
|
17
19
|
},
|
18
|
-
"cloudflare": {
|
20
|
+
"cloudflare": {
|
21
|
+
"description": "Exécutez des modèles d'apprentissage automatique alimentés par GPU sans serveur sur le réseau mondial de Cloudflare."
|
22
|
+
},
|
19
23
|
"deepseek": {
|
20
24
|
"description": "DeepSeek est une entreprise spécialisée dans la recherche et l'application des technologies d'intelligence artificielle, dont le dernier modèle, DeepSeek-V2.5, combine des capacités de dialogue général et de traitement de code, réalisant des améliorations significatives dans l'alignement des préférences humaines, les tâches d'écriture et le suivi des instructions."
|
21
25
|
},
|
@@ -35,7 +39,7 @@
|
|
35
39
|
"description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud."
|
36
40
|
},
|
37
41
|
"higress": {
|
38
|
-
"description": ""
|
42
|
+
"description": "Higress est une passerelle API cloud-native, née au sein d'Alibaba pour résoudre les problèmes de rechargement de Tengine affectant les connexions persistantes, ainsi que le manque de capacités d'équilibrage de charge pour gRPC/Dubbo."
|
39
43
|
},
|
40
44
|
"huggingface": {
|
41
45
|
"description": "L'API d'inférence HuggingFace offre un moyen rapide et gratuit d'explorer des milliers de modèles adaptés à diverses tâches. Que vous soyez en train de prototyper une nouvelle application ou d'expérimenter les capacités de l'apprentissage automatique, cette API vous permet d'accéder instantanément à des modèles performants dans de nombreux domaines."
|
@@ -73,7 +77,9 @@
|
|
73
77
|
"qwen": {
|
74
78
|
"description": "Tongyi Qianwen est un modèle de langage à grande échelle développé de manière autonome par Alibaba Cloud, doté de puissantes capacités de compréhension et de génération du langage naturel. Il peut répondre à diverses questions, créer du contenu écrit, exprimer des opinions, rédiger du code, etc., jouant un rôle dans plusieurs domaines."
|
75
79
|
},
|
76
|
-
"sensenova": {
|
80
|
+
"sensenova": {
|
81
|
+
"description": "SenseNova, soutenue par la puissante infrastructure de SenseTime, offre des services de modèles de grande taille complets, efficaces et faciles à utiliser."
|
82
|
+
},
|
77
83
|
"siliconcloud": {
|
78
84
|
"description": "SiliconFlow s'engage à accélérer l'AGI pour le bénéfice de l'humanité, en améliorant l'efficacité de l'IA à grande échelle grâce à une pile GenAI facile à utiliser et à faible coût."
|
79
85
|
},
|
@@ -23,20 +23,6 @@
|
|
23
23
|
"4.0Ultra": {
|
24
24
|
"description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore."
|
25
25
|
},
|
26
|
-
"@cf/meta/llama-3-8b-instruct-awq": {},
|
27
|
-
"@cf/openchat/openchat-3.5-0106": {},
|
28
|
-
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
29
|
-
"@hf/google/gemma-7b-it": {},
|
30
|
-
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
31
|
-
"description": "Generazione dopo generazione, Meta Llama 3 dimostra prestazioni all'avanguardia su una vasta gamma di benchmark del settore e offre nuove capacità, inclusa una ragionamento migliorato."
|
32
|
-
},
|
33
|
-
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
34
|
-
"@hf/nexusflow/starling-lm-7b-beta": {},
|
35
|
-
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
36
|
-
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
37
|
-
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
38
|
-
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
39
|
-
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
40
26
|
"Baichuan2-Turbo": {
|
41
27
|
"description": "Utilizza tecnologie di ricerca avanzate per collegare completamente il grande modello con la conoscenza di settore e la conoscenza globale. Supporta il caricamento di vari documenti come PDF, Word e l'immissione di URL, con acquisizione di informazioni tempestiva e completa, e risultati di output accurati e professionali."
|
42
28
|
},
|
@@ -127,7 +113,6 @@
|
|
127
113
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
128
114
|
"description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
|
129
115
|
},
|
130
|
-
"NousResearch/Hermes-3-Llama-3.1-8B": {},
|
131
116
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
132
117
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi."
|
133
118
|
},
|
@@ -530,9 +515,6 @@
|
|
530
515
|
"cohere-command-r-plus": {
|
531
516
|
"description": "Command R+ è un modello ottimizzato per RAG all'avanguardia progettato per affrontare carichi di lavoro di livello aziendale."
|
532
517
|
},
|
533
|
-
"command-light": {
|
534
|
-
"description": ""
|
535
|
-
},
|
536
518
|
"command-r": {
|
537
519
|
"description": "Command R è un LLM ottimizzato per compiti di dialogo e contesti lunghi, particolarmente adatto per interazioni dinamiche e gestione della conoscenza."
|
538
520
|
},
|
@@ -794,9 +776,6 @@
|
|
794
776
|
"hunyuan-functioncall": {
|
795
777
|
"description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
|
796
778
|
},
|
797
|
-
"hunyuan-large": {
|
798
|
-
"description": ""
|
799
|
-
},
|
800
779
|
"hunyuan-lite": {
|
801
780
|
"description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
|
802
781
|
},
|
@@ -830,8 +809,6 @@
|
|
830
809
|
"internlm2.5-latest": {
|
831
810
|
"description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti."
|
832
811
|
},
|
833
|
-
"jamba-1.5-large": {},
|
834
|
-
"jamba-1.5-mini": {},
|
835
812
|
"learnlm-1.5-pro-experimental": {
|
836
813
|
"description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
|
837
814
|
},
|
@@ -1027,7 +1004,6 @@
|
|
1027
1004
|
"meta.llama3-8b-instruct-v1:0": {
|
1028
1005
|
"description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi."
|
1029
1006
|
},
|
1030
|
-
"microsoft/Phi-3.5-mini-instruct": {},
|
1031
1007
|
"microsoft/WizardLM-2-8x22B": {
|
1032
1008
|
"description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti."
|
1033
1009
|
},
|