@lobehub/chat 1.36.7 → 1.36.9
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +78 -0
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +78 -0
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +78 -0
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +78 -0
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +78 -0
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +78 -0
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +78 -0
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +78 -0
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +78 -0
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +78 -0
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +78 -0
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/modelProvider.json +9 -9
- package/locales/pl-PL/models.json +78 -0
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +78 -0
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +78 -0
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +78 -0
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +78 -0
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +88 -10
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +78 -0
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/src/app/(backend)/api/webhooks/clerk/route.ts +18 -3
- package/src/config/modelProviders/zhipu.ts +14 -0
- package/src/database/server/models/__tests__/nextauth.test.ts +33 -0
- package/src/libs/next-auth/adapter/index.ts +8 -2
- package/src/server/services/user/index.test.ts +200 -0
- package/src/server/services/user/index.ts +24 -32
- package/vitest.config.ts +1 -1
@@ -55,6 +55,24 @@
|
|
55
55
|
"Baichuan4-Turbo": {
|
56
56
|
"description": "Das Modell hat die höchste Leistungsfähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativen Generierungen auf Chinesisch. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren anerkannten Bewertungsbenchmarks hervorragende Leistungen."
|
57
57
|
},
|
58
|
+
"Doubao-lite-128k": {
|
59
|
+
"description": "Doubao-lite bietet eine extrem hohe Reaktionsgeschwindigkeit und ein hervorragendes Preis-Leistungs-Verhältnis und bietet den Kunden flexiblere Optionen für verschiedene Szenarien. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 128k-Kontextfenster."
|
60
|
+
},
|
61
|
+
"Doubao-lite-32k": {
|
62
|
+
"description": "Doubao-lite bietet eine extrem hohe Reaktionsgeschwindigkeit und ein hervorragendes Preis-Leistungs-Verhältnis und bietet den Kunden flexiblere Optionen für verschiedene Szenarien. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 32k-Kontextfenster."
|
63
|
+
},
|
64
|
+
"Doubao-lite-4k": {
|
65
|
+
"description": "Doubao-lite bietet eine extrem hohe Reaktionsgeschwindigkeit und ein hervorragendes Preis-Leistungs-Verhältnis und bietet den Kunden flexiblere Optionen für verschiedene Szenarien. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 4k-Kontextfenster."
|
66
|
+
},
|
67
|
+
"Doubao-pro-128k": {
|
68
|
+
"description": "Das leistungsstärkste Hauptmodell, das sich zur Verarbeitung komplexer Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, Kreativität, Textklassifizierung und Rollenspiel sehr gute Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 128k-Kontextfenster."
|
69
|
+
},
|
70
|
+
"Doubao-pro-32k": {
|
71
|
+
"description": "Das leistungsstärkste Hauptmodell, das sich zur Verarbeitung komplexer Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, Kreativität, Textklassifizierung und Rollenspiel sehr gute Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 32k-Kontextfenster."
|
72
|
+
},
|
73
|
+
"Doubao-pro-4k": {
|
74
|
+
"description": "Das leistungsstärkste Hauptmodell, das sich zur Verarbeitung komplexer Aufgaben eignet und in Szenarien wie Referenzfragen, Zusammenfassungen, Kreativität, Textklassifizierung und Rollenspiel sehr gute Ergebnisse erzielt. Es unterstützt Schlussfolgerungen und Feinabstimmungen mit einem 4k-Kontextfenster."
|
75
|
+
},
|
58
76
|
"ERNIE-3.5-128K": {
|
59
77
|
"description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
|
60
78
|
},
|
@@ -242,6 +260,21 @@
|
|
242
260
|
"SenseChat-Turbo": {
|
243
261
|
"description": "Geeignet für schnelle Fragen und Antworten sowie Szenarien zur Feinabstimmung des Modells."
|
244
262
|
},
|
263
|
+
"Skylark2-lite-8k": {
|
264
|
+
"description": "Das zweite Modell der Skylark-Reihe, das Skylark2-lite-Modell bietet eine hohe Reaktionsgeschwindigkeit und eignet sich für Szenarien mit hohen Echtzeitanforderungen, kostensensitiven Anforderungen und geringeren Genauigkeitsanforderungen, mit einer Kontextfensterlänge von 8k."
|
265
|
+
},
|
266
|
+
"Skylark2-pro-32k": {
|
267
|
+
"description": "Das zweite Modell der Skylark-Reihe, die Skylark2-pro-Version hat eine hohe Modellgenauigkeit und eignet sich für komplexere Textgenerierungsszenarien, wie z. B. professionelle Texterstellung, Romankreation und hochwertige Übersetzungen, mit einer Kontextfensterlänge von 32k."
|
268
|
+
},
|
269
|
+
"Skylark2-pro-4k": {
|
270
|
+
"description": "Das zweite Modell der Skylark-Reihe, die Skylark2-pro-Version hat eine hohe Modellgenauigkeit und eignet sich für komplexere Textgenerierungsszenarien, wie z. B. professionelle Texterstellung, Romankreation und hochwertige Übersetzungen, mit einer Kontextfensterlänge von 4k."
|
271
|
+
},
|
272
|
+
"Skylark2-pro-character-4k": {
|
273
|
+
"description": "Das zweite Modell der Skylark-Reihe, das Skylark2-pro-character-Modell hat hervorragende Fähigkeiten im Rollenspiel und Chat, kann sich entsprechend den Anforderungen des Benutzers verkleiden und bietet natürliche und flüssige Dialoginhalte. Es eignet sich für den Aufbau von Chatbots, virtuellen Assistenten und Online-Kundensupport und bietet eine hohe Reaktionsgeschwindigkeit."
|
274
|
+
},
|
275
|
+
"Skylark2-pro-turbo-8k": {
|
276
|
+
"description": "Das zweite Modell der Skylark-Reihe, das Skylark2-pro-turbo-8k bietet schnellere Schlussfolgerungen und niedrigere Kosten, mit einer Kontextfensterlänge von 8k."
|
277
|
+
},
|
245
278
|
"THUDM/chatglm3-6b": {
|
246
279
|
"description": "ChatGLM3-6B ist das Open-Source-Modell der ChatGLM-Serie, das von Zhizhu AI entwickelt wurde. Dieses Modell bewahrt die hervorragenden Eigenschaften der Vorgängermodelle, wie flüssige Dialoge und niedrige Bereitstellungskosten, während es neue Funktionen einführt. Es verwendet vielfältigere Trainingsdaten, eine größere Anzahl an Trainingsschritten und eine sinnvollere Trainingsstrategie und zeigt hervorragende Leistungen unter den vortrainierten Modellen mit weniger als 10B. ChatGLM3-6B unterstützt mehrstufige Dialoge, Tool-Aufrufe, Code-Ausführung und Agentenaufgaben in komplexen Szenarien. Neben dem Dialogmodell wurden auch das Basis-Modell ChatGLM-6B-Base und das lange Textdialogmodell ChatGLM3-6B-32K als Open Source veröffentlicht. Dieses Modell ist vollständig für akademische Forschung geöffnet und erlaubt auch kostenlose kommerzielle Nutzung nach Registrierung."
|
247
280
|
},
|
@@ -476,6 +509,9 @@
|
|
476
509
|
"cohere-command-r-plus": {
|
477
510
|
"description": "Command R+ ist ein hochmodernes, RAG-optimiertes Modell, das für unternehmensgerechte Arbeitslasten konzipiert ist."
|
478
511
|
},
|
512
|
+
"command-light": {
|
513
|
+
"description": ""
|
514
|
+
},
|
479
515
|
"command-r": {
|
480
516
|
"description": "Command R ist ein LLM, das für Dialoge und Aufgaben mit langen Kontexten optimiert ist und sich besonders gut für dynamische Interaktionen und Wissensmanagement eignet."
|
481
517
|
},
|
@@ -539,6 +575,9 @@
|
|
539
575
|
"gemini-1.5-flash-8b-exp-0924": {
|
540
576
|
"description": "Gemini 1.5 Flash 8B 0924 ist das neueste experimentelle Modell, das in Text- und multimodalen Anwendungsfällen erhebliche Leistungsverbesserungen aufweist."
|
541
577
|
},
|
578
|
+
"gemini-1.5-flash-exp-0827": {
|
579
|
+
"description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitungskapazitäten, die für verschiedene komplexe Aufgaben geeignet sind."
|
580
|
+
},
|
542
581
|
"gemini-1.5-flash-latest": {
|
543
582
|
"description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell, das über schnelle Verarbeitungsfähigkeiten verfügt und Text-, Bild- und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen."
|
544
583
|
},
|
@@ -548,6 +587,12 @@
|
|
548
587
|
"gemini-1.5-pro-002": {
|
549
588
|
"description": "Gemini 1.5 Pro 002 ist das neueste produktionsbereite Modell, das eine höhere Ausgabequalität bietet, insbesondere bei mathematischen, langen Kontexten und visuellen Aufgaben erhebliche Verbesserungen aufweist."
|
550
589
|
},
|
590
|
+
"gemini-1.5-pro-exp-0801": {
|
591
|
+
"description": "Gemini 1.5 Pro 0801 bietet herausragende multimodale Verarbeitungskapazitäten und bringt größere Flexibilität in die Anwendungsentwicklung."
|
592
|
+
},
|
593
|
+
"gemini-1.5-pro-exp-0827": {
|
594
|
+
"description": "Gemini 1.5 Pro 0827 kombiniert die neuesten Optimierungstechnologien, um eine effizientere multimodale Datenverarbeitung zu ermöglichen."
|
595
|
+
},
|
551
596
|
"gemini-1.5-pro-latest": {
|
552
597
|
"description": "Gemini 1.5 Pro unterstützt bis zu 2 Millionen Tokens und ist die ideale Wahl für mittelgroße multimodale Modelle, die umfassende Unterstützung für komplexe Aufgaben bieten."
|
553
598
|
},
|
@@ -557,6 +602,9 @@
|
|
557
602
|
"gemini-exp-1121": {
|
558
603
|
"description": "Gemini Exp 1121 ist Googles neuestes experimentelles multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen."
|
559
604
|
},
|
605
|
+
"gemini-exp-1206": {
|
606
|
+
"description": "Gemini Exp 1206 ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu historischen Versionen eine gewisse Qualitätssteigerung aufweist."
|
607
|
+
},
|
560
608
|
"gemma-7b-it": {
|
561
609
|
"description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
|
562
610
|
},
|
@@ -647,6 +695,12 @@
|
|
647
695
|
"gpt-3.5-turbo-instruct": {
|
648
696
|
"description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125."
|
649
697
|
},
|
698
|
+
"gpt-35-turbo": {
|
699
|
+
"description": "GPT 3.5 Turbo ist ein effizientes Modell von OpenAI, das für Chat- und Textgenerierungsaufgaben geeignet ist und parallele Funktionsaufrufe unterstützt."
|
700
|
+
},
|
701
|
+
"gpt-35-turbo-16k": {
|
702
|
+
"description": "GPT 3.5 Turbo 16k ist ein hochkapazitives Textgenerierungsmodell, das sich für komplexe Aufgaben eignet."
|
703
|
+
},
|
650
704
|
"gpt-4": {
|
651
705
|
"description": "GPT-4 bietet ein größeres Kontextfenster, das in der Lage ist, längere Texteingaben zu verarbeiten, und eignet sich für Szenarien, die eine umfassende Informationsintegration und Datenanalyse erfordern."
|
652
706
|
},
|
@@ -689,6 +743,9 @@
|
|
689
743
|
"gpt-4o-2024-08-06": {
|
690
744
|
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung."
|
691
745
|
},
|
746
|
+
"gpt-4o-2024-11-20": {
|
747
|
+
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsbereiche, einschließlich Kundenservice, Bildung und technischen Support."
|
748
|
+
},
|
692
749
|
"gpt-4o-mini": {
|
693
750
|
"description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und sowohl Text- als auch Bildinput unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und kostet über 60 % weniger als GPT-3.5 Turbo. Es behält die fortschrittliche Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
|
694
751
|
},
|
@@ -707,6 +764,9 @@
|
|
707
764
|
"hunyuan-functioncall": {
|
708
765
|
"description": "Das neueste MOE-Architektur-FunctionCall-Modell von Hunyuan, das mit hochwertigen FunctionCall-Daten trainiert wurde, hat ein Kontextfenster von 32K und führt in mehreren Bewertungsmetriken."
|
709
766
|
},
|
767
|
+
"hunyuan-large": {
|
768
|
+
"description": ""
|
769
|
+
},
|
710
770
|
"hunyuan-lite": {
|
711
771
|
"description": "Aufgerüstet auf eine MOE-Struktur mit einem Kontextfenster von 256k, führt es in mehreren Bewertungssets in NLP, Code, Mathematik und Industrie zahlreiche Open-Source-Modelle an."
|
712
772
|
},
|
@@ -787,6 +847,9 @@
|
|
787
847
|
"llama-3.2-90b-vision-preview": {
|
788
848
|
"description": "Llama 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellen Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
|
789
849
|
},
|
850
|
+
"llama-3.3-70b-versatile": {
|
851
|
+
"description": "Das Meta Llama 3.3 ist ein mehrsprachiges, großes Sprachmodell (LLM), das aus einem vortrainierten und anweisungsorientierten generativen Modell mit 70B (Text-Eingabe/Text-Ausgabe) besteht. Das anweisungsorientierte Modell von Llama 3.3 ist für mehrsprachige Dialoganwendungen optimiert und übertrifft viele verfügbare Open-Source- und Closed-Source-Chat-Modelle bei gängigen Branchenbenchmarks."
|
852
|
+
},
|
790
853
|
"llama3-70b-8192": {
|
791
854
|
"description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen."
|
792
855
|
},
|
@@ -1094,12 +1157,21 @@
|
|
1094
1157
|
"qwen-math-turbo-latest": {
|
1095
1158
|
"description": "Das Tongyi Qianwen Mathematikmodell ist speziell für die Lösung von mathematischen Problemen konzipiert."
|
1096
1159
|
},
|
1160
|
+
"qwen-max": {
|
1161
|
+
"description": "Qwen Max ist ein großangelegtes Sprachmodell auf Billionenebene, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und das API-Modell hinter der aktuellen Produktversion von Qwen 2.5 ist."
|
1162
|
+
},
|
1097
1163
|
"qwen-max-latest": {
|
1098
1164
|
"description": "Der Tongyi Qianwen ist ein Sprachmodell mit einem Umfang von mehreren Billionen, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und die API-Modelle hinter der aktuellen Version 2.5 von Tongyi Qianwen darstellt."
|
1099
1165
|
},
|
1166
|
+
"qwen-plus": {
|
1167
|
+
"description": "Qwen Plus ist die verbesserte Version des großangelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
|
1168
|
+
},
|
1100
1169
|
"qwen-plus-latest": {
|
1101
1170
|
"description": "Der Tongyi Qianwen ist die erweiterte Version eines groß angelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
|
1102
1171
|
},
|
1172
|
+
"qwen-turbo": {
|
1173
|
+
"description": "Qwen Turbo ist ein großangelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
|
1174
|
+
},
|
1103
1175
|
"qwen-turbo-latest": {
|
1104
1176
|
"description": "Der Tongyi Qianwen ist ein groß angelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
|
1105
1177
|
},
|
@@ -1136,12 +1208,18 @@
|
|
1136
1208
|
"qwen2.5-7b-instruct": {
|
1137
1209
|
"description": "Das 7B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich."
|
1138
1210
|
},
|
1211
|
+
"qwen2.5-coder-1.5b-instruct": {
|
1212
|
+
"description": "Die Open-Source-Version des Qwen-Codemodells."
|
1213
|
+
},
|
1139
1214
|
"qwen2.5-coder-32b-instruct": {
|
1140
1215
|
"description": "Open-Source-Version des Tongyi Qianwen Code-Modells."
|
1141
1216
|
},
|
1142
1217
|
"qwen2.5-coder-7b-instruct": {
|
1143
1218
|
"description": "Die Open-Source-Version des Tongyi Qianwen Code-Modells."
|
1144
1219
|
},
|
1220
|
+
"qwen2.5-math-1.5b-instruct": {
|
1221
|
+
"description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
|
1222
|
+
},
|
1145
1223
|
"qwen2.5-math-72b-instruct": {
|
1146
1224
|
"description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
|
1147
1225
|
},
|
@@ -34,6 +34,9 @@
|
|
34
34
|
"groq": {
|
35
35
|
"description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung."
|
36
36
|
},
|
37
|
+
"higress": {
|
38
|
+
"description": ""
|
39
|
+
},
|
37
40
|
"huggingface": {
|
38
41
|
"description": "Die HuggingFace Inference API bietet eine schnelle und kostenlose Möglichkeit, Tausende von Modellen für verschiedene Aufgaben zu erkunden. Egal, ob Sie Prototypen für neue Anwendungen erstellen oder die Funktionen des maschinellen Lernens ausprobieren, diese API ermöglicht Ihnen den sofortigen Zugriff auf leistungsstarke Modelle aus verschiedenen Bereichen."
|
39
42
|
},
|
@@ -55,6 +55,24 @@
|
|
55
55
|
"Baichuan4-Turbo": {
|
56
56
|
"description": "The leading model in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also possesses industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
|
57
57
|
},
|
58
|
+
"Doubao-lite-128k": {
|
59
|
+
"description": "Doubao-lite provides extreme response speed and better cost-effectiveness, offering flexible options for various customer scenarios. It supports inference and fine-tuning with a 128k context window."
|
60
|
+
},
|
61
|
+
"Doubao-lite-32k": {
|
62
|
+
"description": "Doubao-lite offers extreme response speed and better cost-effectiveness, providing flexible options for various customer scenarios. It supports inference and fine-tuning with a 32k context window."
|
63
|
+
},
|
64
|
+
"Doubao-lite-4k": {
|
65
|
+
"description": "Doubao-lite boasts extreme response speed and better cost-effectiveness, providing flexible options for various customer scenarios. It supports inference and fine-tuning with a 4k context window."
|
66
|
+
},
|
67
|
+
"Doubao-pro-128k": {
|
68
|
+
"description": "The best-performing primary model designed to handle complex tasks, achieving strong performance in scenarios such as reference Q&A, summarization, creative writing, text classification, and role-playing. It supports inference and fine-tuning with a 128k context window."
|
69
|
+
},
|
70
|
+
"Doubao-pro-32k": {
|
71
|
+
"description": "The best-performing primary model suited for complex tasks, showing great results in reference Q&A, summarization, creative writing, text classification, and role-playing. It supports inference and fine-tuning with a 32k context window."
|
72
|
+
},
|
73
|
+
"Doubao-pro-4k": {
|
74
|
+
"description": "The best-performing primary model suitable for handling complex tasks, demonstrating excellent performance in scenarios such as reference Q&A, summarization, creative writing, text classification, and role-playing. It supports inference and fine-tuning with a 4k context window."
|
75
|
+
},
|
58
76
|
"ERNIE-3.5-128K": {
|
59
77
|
"description": "Baidu's self-developed flagship large-scale language model, covering a vast amount of Chinese and English corpus. It possesses strong general capabilities, meeting the requirements for most dialogue Q&A, creative generation, and plugin application scenarios; it supports automatic integration with Baidu's search plugin to ensure the timeliness of Q&A information."
|
60
78
|
},
|
@@ -242,6 +260,21 @@
|
|
242
260
|
"SenseChat-Turbo": {
|
243
261
|
"description": "Suitable for fast question answering and model fine-tuning scenarios."
|
244
262
|
},
|
263
|
+
"Skylark2-lite-8k": {
|
264
|
+
"description": "Skylark 2nd generation model, Skylark2-lite model is characterized by high response speed, suitable for high real-time requirements, cost-sensitive scenarios, and situations where model accuracy is less critical, with a context window length of 8k."
|
265
|
+
},
|
266
|
+
"Skylark2-pro-32k": {
|
267
|
+
"description": "Skylark 2nd generation model, Skylark2-pro version has high model accuracy, suitable for more complex text generation scenarios such as professional field copy generation, novel writing, and high-quality translation, with a context window length of 32k."
|
268
|
+
},
|
269
|
+
"Skylark2-pro-4k": {
|
270
|
+
"description": "Skylark 2nd generation model, Skylark2-pro model has high model accuracy, suitable for more complex text generation scenarios such as professional field copy generation, novel writing, and high-quality translation, with a context window length of 4k."
|
271
|
+
},
|
272
|
+
"Skylark2-pro-character-4k": {
|
273
|
+
"description": "Skylark 2nd generation model, Skylark2-pro-character has excellent role-playing and chat capabilities, adept at engaging in conversations with users based on their prompt requests, showcasing distinct character styles and flowing dialogue, making it well-suited for building chatbots, virtual assistants, and online customer service, with high response speed."
|
274
|
+
},
|
275
|
+
"Skylark2-pro-turbo-8k": {
|
276
|
+
"description": "Skylark 2nd generation model, Skylark2-pro-turbo-8k provides faster inference at a lower cost, with a context window length of 8k."
|
277
|
+
},
|
245
278
|
"THUDM/chatglm3-6b": {
|
246
279
|
"description": "ChatGLM3-6B is an open-source model from the ChatGLM series, developed by Zhipu AI. This model retains the excellent features of its predecessor, such as smooth dialogue and low deployment barriers, while introducing new features. It utilizes more diverse training data, more extensive training steps, and more reasonable training strategies, performing exceptionally well among pre-trained models under 10B. ChatGLM3-6B supports multi-turn dialogues, tool invocation, code execution, and complex scenarios such as Agent tasks. In addition to the dialogue model, the foundational model ChatGLM-6B-Base and the long-text dialogue model ChatGLM3-6B-32K are also open-sourced. The model is fully open for academic research and allows free commercial use after registration."
|
247
280
|
},
|
@@ -476,6 +509,9 @@
|
|
476
509
|
"cohere-command-r-plus": {
|
477
510
|
"description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads."
|
478
511
|
},
|
512
|
+
"command-light": {
|
513
|
+
"description": ""
|
514
|
+
},
|
479
515
|
"command-r": {
|
480
516
|
"description": "Command R is an LLM optimized for dialogue and long context tasks, particularly suitable for dynamic interactions and knowledge management."
|
481
517
|
},
|
@@ -539,6 +575,9 @@
|
|
539
575
|
"gemini-1.5-flash-8b-exp-0924": {
|
540
576
|
"description": "Gemini 1.5 Flash 8B 0924 is the latest experimental model, showcasing significant performance improvements in both text and multimodal use cases."
|
541
577
|
},
|
578
|
+
"gemini-1.5-flash-exp-0827": {
|
579
|
+
"description": "Gemini 1.5 Flash 0827 provides optimized multimodal processing capabilities, suitable for various complex task scenarios."
|
580
|
+
},
|
542
581
|
"gemini-1.5-flash-latest": {
|
543
582
|
"description": "Gemini 1.5 Flash is Google's latest multimodal AI model, featuring fast processing capabilities and supporting text, image, and video inputs, making it suitable for efficient scaling across various tasks."
|
544
583
|
},
|
@@ -548,6 +587,12 @@
|
|
548
587
|
"gemini-1.5-pro-002": {
|
549
588
|
"description": "Gemini 1.5 Pro 002 is the latest production-ready model, delivering higher quality outputs, with notable enhancements in mathematics, long-context, and visual tasks."
|
550
589
|
},
|
590
|
+
"gemini-1.5-pro-exp-0801": {
|
591
|
+
"description": "Gemini 1.5 Pro 0801 offers excellent multimodal processing capabilities, providing greater flexibility for application development."
|
592
|
+
},
|
593
|
+
"gemini-1.5-pro-exp-0827": {
|
594
|
+
"description": "Gemini 1.5 Pro 0827 combines the latest optimization technologies for more efficient multimodal data processing."
|
595
|
+
},
|
551
596
|
"gemini-1.5-pro-latest": {
|
552
597
|
"description": "Gemini 1.5 Pro supports up to 2 million tokens, making it an ideal choice for medium-sized multimodal models, providing multifaceted support for complex tasks."
|
553
598
|
},
|
@@ -557,6 +602,9 @@
|
|
557
602
|
"gemini-exp-1121": {
|
558
603
|
"description": "Gemini Exp 1121 is Google's latest experimental multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it efficient for a variety of tasks."
|
559
604
|
},
|
605
|
+
"gemini-exp-1206": {
|
606
|
+
"description": "Gemini Exp 1206 is Google's latest experimental multimodal AI model, offering significant quality improvements compared to previous versions."
|
607
|
+
},
|
560
608
|
"gemma-7b-it": {
|
561
609
|
"description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
|
562
610
|
},
|
@@ -647,6 +695,12 @@
|
|
647
695
|
"gpt-3.5-turbo-instruct": {
|
648
696
|
"description": "GPT 3.5 Turbo is suitable for various text generation and understanding tasks. Currently points to gpt-3.5-turbo-0125."
|
649
697
|
},
|
698
|
+
"gpt-35-turbo": {
|
699
|
+
"description": "GPT 3.5 Turbo is an efficient model provided by OpenAI, suitable for chat and text generation tasks, supporting parallel function calls."
|
700
|
+
},
|
701
|
+
"gpt-35-turbo-16k": {
|
702
|
+
"description": "GPT 3.5 Turbo 16k is a high-capacity text generation model suitable for complex tasks."
|
703
|
+
},
|
650
704
|
"gpt-4": {
|
651
705
|
"description": "GPT-4 offers a larger context window, capable of handling longer text inputs, making it suitable for scenarios that require extensive information integration and data analysis."
|
652
706
|
},
|
@@ -689,6 +743,9 @@
|
|
689
743
|
"gpt-4o-2024-08-06": {
|
690
744
|
"description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support."
|
691
745
|
},
|
746
|
+
"gpt-4o-2024-11-20": {
|
747
|
+
"description": "ChatGPT-4o is a dynamic model that updates in real-time to maintain the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications including customer service, education, and technical support."
|
748
|
+
},
|
692
749
|
"gpt-4o-mini": {
|
693
750
|
"description": "GPT-4o mini is the latest model released by OpenAI after GPT-4 Omni, supporting both image and text input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models, costing over 60% less than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences."
|
694
751
|
},
|
@@ -707,6 +764,9 @@
|
|
707
764
|
"hunyuan-functioncall": {
|
708
765
|
"description": "The latest MOE architecture FunctionCall model from Hunyuan, trained on high-quality FunctionCall data, with a context window of 32K, leading in multiple dimensions of evaluation metrics."
|
709
766
|
},
|
767
|
+
"hunyuan-large": {
|
768
|
+
"description": ""
|
769
|
+
},
|
710
770
|
"hunyuan-lite": {
|
711
771
|
"description": "Upgraded to a MOE structure with a context window of 256k, leading many open-source models in various NLP, coding, mathematics, and industry benchmarks."
|
712
772
|
},
|
@@ -787,6 +847,9 @@
|
|
787
847
|
"llama-3.2-90b-vision-preview": {
|
788
848
|
"description": "Llama 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning."
|
789
849
|
},
|
850
|
+
"llama-3.3-70b-versatile": {
|
851
|
+
"description": "Meta Llama 3.3 is a multilingual large language model (LLM) with 70 billion parameters (text input/text output), featuring pre-training and instruction-tuning. The instruction-tuned pure text model of Llama 3.3 is optimized for multilingual conversational use cases and outperforms many available open-source and closed chat models on common industry benchmarks."
|
852
|
+
},
|
790
853
|
"llama3-70b-8192": {
|
791
854
|
"description": "Meta Llama 3 70B provides unparalleled complexity handling capabilities, tailored for high-demand projects."
|
792
855
|
},
|
@@ -1094,12 +1157,21 @@
|
|
1094
1157
|
"qwen-math-turbo-latest": {
|
1095
1158
|
"description": "The Tongyi Qianwen Math model is specifically designed for solving mathematical problems."
|
1096
1159
|
},
|
1160
|
+
"qwen-max": {
|
1161
|
+
"description": "Qwen Max is a trillion-level large-scale language model that supports input in various languages including Chinese and English, and is the API model behind the current Qwen 2.5 product version."
|
1162
|
+
},
|
1097
1163
|
"qwen-max-latest": {
|
1098
1164
|
"description": "Tongyi Qianwen Max is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English. It is the API model behind the current Tongyi Qianwen 2.5 product version."
|
1099
1165
|
},
|
1166
|
+
"qwen-plus": {
|
1167
|
+
"description": "Qwen Plus is an enhanced large-scale language model supporting input in various languages including Chinese and English."
|
1168
|
+
},
|
1100
1169
|
"qwen-plus-latest": {
|
1101
1170
|
"description": "Tongyi Qianwen Plus is an enhanced version of the large-scale language model, supporting input in various languages, including Chinese and English."
|
1102
1171
|
},
|
1172
|
+
"qwen-turbo": {
|
1173
|
+
"description": "Qwen Turbo is a large-scale language model supporting input in various languages including Chinese and English."
|
1174
|
+
},
|
1103
1175
|
"qwen-turbo-latest": {
|
1104
1176
|
"description": "Tongyi Qianwen is a large-scale language model that supports input in various languages, including Chinese and English."
|
1105
1177
|
},
|
@@ -1136,12 +1208,18 @@
|
|
1136
1208
|
"qwen2.5-7b-instruct": {
|
1137
1209
|
"description": "The 7B model of Tongyi Qianwen 2.5 is open-sourced."
|
1138
1210
|
},
|
1211
|
+
"qwen2.5-coder-1.5b-instruct": {
|
1212
|
+
"description": "Open-source version of the Qwen coding model."
|
1213
|
+
},
|
1139
1214
|
"qwen2.5-coder-32b-instruct": {
|
1140
1215
|
"description": "Open-source version of the Tongyi Qianwen code model."
|
1141
1216
|
},
|
1142
1217
|
"qwen2.5-coder-7b-instruct": {
|
1143
1218
|
"description": "The open-source version of the Tongyi Qianwen Coder model."
|
1144
1219
|
},
|
1220
|
+
"qwen2.5-math-1.5b-instruct": {
|
1221
|
+
"description": "Qwen-Math model has powerful mathematical problem-solving capabilities."
|
1222
|
+
},
|
1145
1223
|
"qwen2.5-math-72b-instruct": {
|
1146
1224
|
"description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems."
|
1147
1225
|
},
|
@@ -34,6 +34,9 @@
|
|
34
34
|
"groq": {
|
35
35
|
"description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments."
|
36
36
|
},
|
37
|
+
"higress": {
|
38
|
+
"description": ""
|
39
|
+
},
|
37
40
|
"huggingface": {
|
38
41
|
"description": "The HuggingFace Inference API provides a fast and free way for you to explore thousands of models for various tasks. Whether you are prototyping for a new application or experimenting with the capabilities of machine learning, this API gives you instant access to high-performance models across multiple domains."
|
39
42
|
},
|
@@ -55,6 +55,24 @@
|
|
55
55
|
"Baichuan4-Turbo": {
|
56
56
|
"description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
|
57
57
|
},
|
58
|
+
"Doubao-lite-128k": {
|
59
|
+
"description": "Doubao-lite presenta una velocidad de respuesta extrema y una mejor relación calidad-precio, ofreciendo opciones más flexibles para diferentes escenarios de clientes. Admite inferencia y ajuste fino con ventanas de contexto de 128k."
|
60
|
+
},
|
61
|
+
"Doubao-lite-32k": {
|
62
|
+
"description": "Doubao-lite presenta una velocidad de respuesta extrema y una mejor relación calidad-precio, ofreciendo opciones más flexibles para diferentes escenarios de clientes. Admite inferencia y ajuste fino con ventanas de contexto de 32k."
|
63
|
+
},
|
64
|
+
"Doubao-lite-4k": {
|
65
|
+
"description": "Doubao-lite presenta una velocidad de respuesta extrema y una mejor relación calidad-precio, ofreciendo opciones más flexibles para diferentes escenarios de clientes. Admite inferencia y ajuste fino con ventanas de contexto de 4k."
|
66
|
+
},
|
67
|
+
"Doubao-pro-128k": {
|
68
|
+
"description": "El modelo principal más eficaz, adecuado para manejar tareas complejas, con un excelente rendimiento en escenarios como preguntas y respuestas de referencia, resúmenes, creación de contenido, clasificación de textos y juegos de roles. Admite inferencia y ajuste fino con ventanas de contexto de 128k."
|
69
|
+
},
|
70
|
+
"Doubao-pro-32k": {
|
71
|
+
"description": "El modelo principal más eficaz, adecuado para manejar tareas complejas, con un excelente rendimiento en escenarios como preguntas y respuestas de referencia, resúmenes, creación de contenido, clasificación de textos y juegos de roles. Admite inferencia y ajuste fino con ventanas de contexto de 32k."
|
72
|
+
},
|
73
|
+
"Doubao-pro-4k": {
|
74
|
+
"description": "El modelo principal más eficaz, adecuado para manejar tareas complejas, con un excelente rendimiento en escenarios como preguntas y respuestas de referencia, resúmenes, creación de contenido, clasificación de textos y juegos de roles. Admite inferencia y ajuste fino con ventanas de contexto de 4k."
|
75
|
+
},
|
58
76
|
"ERNIE-3.5-128K": {
|
59
77
|
"description": "Modelo de lenguaje a gran escala de primera línea desarrollado por Baidu, que abarca una vasta cantidad de corpus en chino y en inglés, con potentes capacidades generales que pueden satisfacer la mayoría de los requisitos de preguntas y respuestas en diálogos, generación de contenido y aplicaciones de plugins; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información en las respuestas."
|
60
78
|
},
|
@@ -242,6 +260,21 @@
|
|
242
260
|
"SenseChat-Turbo": {
|
243
261
|
"description": "Adecuado para preguntas rápidas y escenarios de ajuste fino del modelo."
|
244
262
|
},
|
263
|
+
"Skylark2-lite-8k": {
|
264
|
+
"description": "El modelo de segunda generación Skaylark (Skylark), el modelo Skylark2-lite, tiene una alta velocidad de respuesta, adecuado para escenarios donde se requiere alta inmediatez, sensibilidad de costos y baja necesidad de precisión del modelo, con una longitud de ventana de contexto de 8k."
|
265
|
+
},
|
266
|
+
"Skylark2-pro-32k": {
|
267
|
+
"description": "El modelo de segunda generación Skaylark (Skylark), la versión Skylark2-pro, cuenta con una alta precisión, adecuada para escenarios de generación de texto más complejos, como redacción de copy en campos especializados, creación de novelas y traducciones de alta calidad, con una longitud de ventana de contexto de 32k."
|
268
|
+
},
|
269
|
+
"Skylark2-pro-4k": {
|
270
|
+
"description": "El modelo de segunda generación Skaylark (Skylark), el modelo Skylark2-pro, tiene una alta precisión, adecuado para escenarios de generación de texto más complejos, como redacción de copy en campos especializados, creación de novelas y traducciones de alta calidad, con una longitud de ventana de contexto de 4k."
|
271
|
+
},
|
272
|
+
"Skylark2-pro-character-4k": {
|
273
|
+
"description": "El modelo de segunda generación Skaylark (Skylark), el modelo Skylark2-pro-character, presenta habilidades excepcionales para el juego de roles y la conversación, destacándose en interpretar diversos roles según las solicitudes del usuario, con un contenido conversacional natural y fluido, ideal para la construcción de chatbots, asistentes virtuales y servicios al cliente en línea, con una alta velocidad de respuesta."
|
274
|
+
},
|
275
|
+
"Skylark2-pro-turbo-8k": {
|
276
|
+
"description": "El modelo de segunda generación Skaylark (Skylark), Skylark2-pro-turbo-8k, ofrece una inferencia más rápida y costos más bajos, con una longitud de ventana de contexto de 8k."
|
277
|
+
},
|
245
278
|
"THUDM/chatglm3-6b": {
|
246
279
|
"description": "ChatGLM3-6B es un modelo de código abierto de la serie ChatGLM, desarrollado por Zhipu AI. Este modelo conserva las excelentes características de su predecesor, como la fluidez en el diálogo y un bajo umbral de implementación, al tiempo que introduce nuevas características. Utiliza datos de entrenamiento más diversos, un mayor número de pasos de entrenamiento y estrategias de entrenamiento más razonables, destacando entre los modelos preentrenados de menos de 10B. ChatGLM3-6B admite diálogos de múltiples turnos, llamadas a herramientas, ejecución de código y tareas de agente en escenarios complejos. Además del modelo de diálogo, también se han lanzado el modelo base ChatGLM-6B-Base y el modelo de diálogo de texto largo ChatGLM3-6B-32K. Este modelo está completamente abierto para la investigación académica y permite el uso comercial gratuito tras el registro."
|
247
280
|
},
|
@@ -476,6 +509,9 @@
|
|
476
509
|
"cohere-command-r-plus": {
|
477
510
|
"description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial."
|
478
511
|
},
|
512
|
+
"command-light": {
|
513
|
+
"description": ""
|
514
|
+
},
|
479
515
|
"command-r": {
|
480
516
|
"description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento."
|
481
517
|
},
|
@@ -539,6 +575,9 @@
|
|
539
575
|
"gemini-1.5-flash-8b-exp-0924": {
|
540
576
|
"description": "Gemini 1.5 Flash 8B 0924 es el último modelo experimental, con mejoras significativas en el rendimiento tanto en casos de uso de texto como multimodal."
|
541
577
|
},
|
578
|
+
"gemini-1.5-flash-exp-0827": {
|
579
|
+
"description": "Gemini 1.5 Flash 0827 ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para diversas tareas complejas."
|
580
|
+
},
|
542
581
|
"gemini-1.5-flash-latest": {
|
543
582
|
"description": "Gemini 1.5 Flash es el último modelo de IA multimodal de Google, con capacidades de procesamiento rápido, que admite entradas de texto, imagen y video, adecuado para la escalabilidad eficiente en diversas tareas."
|
544
583
|
},
|
@@ -548,6 +587,12 @@
|
|
548
587
|
"gemini-1.5-pro-002": {
|
549
588
|
"description": "Gemini 1.5 Pro 002 es el último modelo listo para producción, que ofrece una calidad de salida superior, especialmente en tareas matemáticas, contextos largos y tareas visuales."
|
550
589
|
},
|
590
|
+
"gemini-1.5-pro-exp-0801": {
|
591
|
+
"description": "Gemini 1.5 Pro 0801 ofrece excelentes capacidades de procesamiento multimodal, brindando mayor flexibilidad para el desarrollo de aplicaciones."
|
592
|
+
},
|
593
|
+
"gemini-1.5-pro-exp-0827": {
|
594
|
+
"description": "Gemini 1.5 Pro 0827 combina las últimas tecnologías optimizadas para brindar capacidades de procesamiento de datos multimodales más eficientes."
|
595
|
+
},
|
551
596
|
"gemini-1.5-pro-latest": {
|
552
597
|
"description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo una opción ideal para modelos multimodales de tamaño medio, adecuados para un soporte multifacético en tareas complejas."
|
553
598
|
},
|
@@ -557,6 +602,9 @@
|
|
557
602
|
"gemini-exp-1121": {
|
558
603
|
"description": "Gemini Exp 1121 es el último modelo experimental de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imágenes y videos, adecuado para una amplia gama de tareas de manera eficiente."
|
559
604
|
},
|
605
|
+
"gemini-exp-1206": {
|
606
|
+
"description": "Gemini Exp 1206 es el último modelo de IA multimodal experimental de Google, con mejoras de calidad en comparación con versiones anteriores."
|
607
|
+
},
|
560
608
|
"gemma-7b-it": {
|
561
609
|
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
562
610
|
},
|
@@ -647,6 +695,12 @@
|
|
647
695
|
"gpt-3.5-turbo-instruct": {
|
648
696
|
"description": "GPT 3.5 Turbo, adecuado para diversas tareas de generación y comprensión de texto, actualmente apunta a gpt-3.5-turbo-0125."
|
649
697
|
},
|
698
|
+
"gpt-35-turbo": {
|
699
|
+
"description": "GPT 3.5 Turbo, un modelo eficiente proporcionado por OpenAI, es adecuado para tareas de conversación y generación de texto, con soporte para llamadas a funciones en paralelo."
|
700
|
+
},
|
701
|
+
"gpt-35-turbo-16k": {
|
702
|
+
"description": "GPT 3.5 Turbo 16k, un modelo de generación de texto de alta capacidad, adecuado para tareas complejas."
|
703
|
+
},
|
650
704
|
"gpt-4": {
|
651
705
|
"description": "GPT-4 ofrece una ventana de contexto más grande, capaz de manejar entradas de texto más largas, adecuado para escenarios que requieren integración de información amplia y análisis de datos."
|
652
706
|
},
|
@@ -689,6 +743,9 @@
|
|
689
743
|
"gpt-4o-2024-08-06": {
|
690
744
|
"description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para aplicaciones a gran escala, incluyendo servicio al cliente, educación y soporte técnico."
|
691
745
|
},
|
746
|
+
"gpt-4o-2024-11-20": {
|
747
|
+
"description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más reciente. Combina una poderosa comprensión del lenguaje con habilidades de generación, adecuada para escenarios de aplicación a gran escala, incluidos servicio al cliente, educación y soporte técnico."
|
748
|
+
},
|
692
749
|
"gpt-4o-mini": {
|
693
750
|
"description": "GPT-4o mini es el último modelo lanzado por OpenAI después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de menor tamaño, es mucho más económico que otros modelos de vanguardia recientes y es más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio significativa. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
|
694
751
|
},
|
@@ -707,6 +764,9 @@
|
|
707
764
|
"hunyuan-functioncall": {
|
708
765
|
"description": "El último modelo FunctionCall de Hunyuan con arquitectura MOE, entrenado con datos de FunctionCall de alta calidad, con una ventana de contexto de 32K, liderando en múltiples dimensiones de métricas de evaluación."
|
709
766
|
},
|
767
|
+
"hunyuan-large": {
|
768
|
+
"description": ""
|
769
|
+
},
|
710
770
|
"hunyuan-lite": {
|
711
771
|
"description": "Actualizado a una estructura MOE, con una ventana de contexto de 256k, lidera en múltiples conjuntos de evaluación en NLP, código, matemáticas, industria y más, superando a muchos modelos de código abierto."
|
712
772
|
},
|
@@ -787,6 +847,9 @@
|
|
787
847
|
"llama-3.2-90b-vision-preview": {
|
788
848
|
"description": "Llama 3.2 está diseñado para manejar tareas que combinan datos visuales y textuales. Destaca en tareas como la descripción de imágenes y preguntas visuales, cruzando la brecha entre la generación de lenguaje y el razonamiento visual."
|
789
849
|
},
|
850
|
+
"llama-3.3-70b-versatile": {
|
851
|
+
"description": "El modelo de lenguaje multilingüe Meta Llama 3.3 (LLM) es un modelo generativo preentrenado y ajustado para instrucciones de 70B (entrada/salida de texto). El modelo de texto puro ajustado para instrucciones de Llama 3.3 está optimizado para casos de uso de conversación multilingüe y supera a muchos modelos de chat de código abierto y cerrado en benchmarks industriales comunes."
|
852
|
+
},
|
790
853
|
"llama3-70b-8192": {
|
791
854
|
"description": "Meta Llama 3 70B proporciona una capacidad de procesamiento de complejidad inigualable, diseñado a medida para proyectos de alta demanda."
|
792
855
|
},
|
@@ -1094,12 +1157,21 @@
|
|
1094
1157
|
"qwen-math-turbo-latest": {
|
1095
1158
|
"description": "El modelo de matemáticas Tongyi Qwen está diseñado específicamente para resolver problemas matemáticos."
|
1096
1159
|
},
|
1160
|
+
"qwen-max": {
|
1161
|
+
"description": "El modelo de lenguaje a gran escala Qwen Max, de billones de parámetros, admite entradas en diferentes idiomas como chino e inglés, y actualmente es el modelo API detrás de la versión del producto Qwen 2.5."
|
1162
|
+
},
|
1097
1163
|
"qwen-max-latest": {
|
1098
1164
|
"description": "El modelo de lenguaje a gran escala Tongyi Qwen de nivel de cientos de miles de millones, que admite entradas en diferentes idiomas como chino e inglés, es el modelo API detrás de la versión del producto Tongyi Qwen 2.5."
|
1099
1165
|
},
|
1166
|
+
"qwen-plus": {
|
1167
|
+
"description": "La versión mejorada del modelo de lenguaje a gran escala Qwen admite entradas en diferentes idiomas como chino e inglés."
|
1168
|
+
},
|
1100
1169
|
"qwen-plus-latest": {
|
1101
1170
|
"description": "La versión mejorada del modelo de lenguaje a gran escala Tongyi Qwen, que admite entradas en diferentes idiomas como chino e inglés."
|
1102
1171
|
},
|
1172
|
+
"qwen-turbo": {
|
1173
|
+
"description": "El modelo de lenguaje a gran escala Qwen-Turbo admite entradas en diferentes idiomas como chino e inglés."
|
1174
|
+
},
|
1103
1175
|
"qwen-turbo-latest": {
|
1104
1176
|
"description": "El modelo de lenguaje a gran escala Tongyi Qwen, que admite entradas en diferentes idiomas como chino e inglés."
|
1105
1177
|
},
|
@@ -1136,12 +1208,18 @@
|
|
1136
1208
|
"qwen2.5-7b-instruct": {
|
1137
1209
|
"description": "El modelo de 7B de Tongyi Qwen 2.5, de código abierto."
|
1138
1210
|
},
|
1211
|
+
"qwen2.5-coder-1.5b-instruct": {
|
1212
|
+
"description": "La versión de código abierto del modelo Qwen para codificación."
|
1213
|
+
},
|
1139
1214
|
"qwen2.5-coder-32b-instruct": {
|
1140
1215
|
"description": "Versión de código abierto del modelo de código Qwen de Tongyi."
|
1141
1216
|
},
|
1142
1217
|
"qwen2.5-coder-7b-instruct": {
|
1143
1218
|
"description": "La versión de código abierto del modelo de código Tongyi Qwen."
|
1144
1219
|
},
|
1220
|
+
"qwen2.5-math-1.5b-instruct": {
|
1221
|
+
"description": "El modelo Qwen-Math tiene habilidades poderosas para resolver problemas matemáticos."
|
1222
|
+
},
|
1145
1223
|
"qwen2.5-math-72b-instruct": {
|
1146
1224
|
"description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
|
1147
1225
|
},
|
@@ -34,6 +34,9 @@
|
|
34
34
|
"groq": {
|
35
35
|
"description": "El motor de inferencia LPU de Groq ha demostrado un rendimiento excepcional en las pruebas de referencia de modelos de lenguaje de gran tamaño (LLM), redefiniendo los estándares de soluciones de IA con su asombrosa velocidad y eficiencia. Groq es un referente en velocidad de inferencia instantánea, mostrando un buen rendimiento en implementaciones basadas en la nube."
|
36
36
|
},
|
37
|
+
"higress": {
|
38
|
+
"description": ""
|
39
|
+
},
|
37
40
|
"huggingface": {
|
38
41
|
"description": "La API de Inferencia de HuggingFace ofrece una forma rápida y gratuita de explorar miles de modelos para diversas tareas. Ya sea que esté prototipando una nueva aplicación o probando las capacidades del aprendizaje automático, esta API le brinda acceso instantáneo a modelos de alto rendimiento en múltiples dominios."
|
39
42
|
},
|