@lobehub/chat 1.19.13 → 1.19.15
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/locales/ar/models.json +116 -48
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +116 -48
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +116 -48
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +116 -48
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +116 -48
- package/locales/es-ES/providers.json +4 -0
- package/locales/fr-FR/models.json +116 -48
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +0 -60
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +116 -48
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +116 -48
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +0 -60
- package/locales/pl-PL/models.json +0 -60
- package/locales/pt-BR/models.json +116 -48
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +116 -48
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +116 -48
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +0 -60
- package/locales/zh-CN/models.json +122 -54
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +116 -48
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +2 -1
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B biedt superieure prestaties in de industrie met rijke trainingsvoorbeelden."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 is de evolutie van de Yi-serie, met hoogwaardige voortraining en rijke fijnstellingsdata."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B ondersteunt 16K tokens en biedt efficiënte, vloeiende taalgeneratiecapaciteiten."
|
10
7
|
},
|
@@ -53,36 +50,12 @@
|
|
53
50
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
51
|
"description": "Als testversie van Qwen2 biedt Qwen1.5 nauwkeurigere gespreksfunctionaliteit door gebruik te maken van grootschalige gegevens."
|
55
52
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5 is getraind op een grote dataset en is bedreven in complexe taalopdrachten."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 heeft de capaciteit voor vraag-en-antwoord en tekstgeneratie in meerdere domeinen."
|
61
|
-
},
|
62
53
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
54
|
"description": "Qwen 1.5 Chat (72B) biedt snelle reacties en natuurlijke gesprekscapaciteiten, geschikt voor meertalige omgevingen."
|
64
55
|
},
|
65
|
-
"Qwen/Qwen1.5-7B-Chat": {
|
66
|
-
"description": "Qwen1.5 verbetert de gespreksuitdrukkingscapaciteit door geavanceerde voortraining en fijnstelling te combineren."
|
67
|
-
},
|
68
|
-
"Qwen/Qwen2-1.5B-Instruct": {
|
69
|
-
"description": "Qwen2 is een nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
|
70
|
-
},
|
71
|
-
"Qwen/Qwen2-57B-A14B-Instruct": {
|
72
|
-
"description": "Qwen2 is een nieuwe serie, waarbij het 57B A14B-model uitblinkt in instructietaken."
|
73
|
-
},
|
74
56
|
"Qwen/Qwen2-72B-Instruct": {
|
75
57
|
"description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt."
|
76
58
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 is een nieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten."
|
79
|
-
},
|
80
|
-
"Qwen/Qwen2-Math-72B-Instruct": {
|
81
|
-
"description": "Qwen2-Math richt zich op probleemoplossing in de wiskunde en biedt professionele antwoorden op moeilijke vragen."
|
82
|
-
},
|
83
|
-
"THUDM/chatglm3-6b": {
|
84
|
-
"description": "Als een tweetalig gespreksmodel kan ChatGLM3 omgaan met Chinese en Engelse conversietaken."
|
85
|
-
},
|
86
59
|
"THUDM/glm-4-9b-chat": {
|
87
60
|
"description": "GLM-4 9B is de open-source versie die een geoptimaliseerde gesprekservaring biedt voor gespreksapplicaties."
|
88
61
|
},
|
@@ -263,12 +236,6 @@
|
|
263
236
|
"databricks/dbrx-instruct": {
|
264
237
|
"description": "DBRX Instruct biedt betrouwbare instructieverwerkingscapaciteiten en ondersteunt toepassingen in verschillende sectoren."
|
265
238
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 is ontworpen voor code-taken en richt zich op efficiënte codegeneratie."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 heeft 6,7 miljard parameters en ondersteunt de verwerking van Engelse en Chinese teksten."
|
271
|
-
},
|
272
239
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
240
|
"description": "DeepSeek V2.5 combineert de uitstekende kenmerken van eerdere versies en versterkt de algemene en coderingscapaciteiten."
|
274
241
|
},
|
@@ -539,9 +506,6 @@
|
|
539
506
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
507
|
"description": "LLaMA-3 Chat (8B) biedt meertalige ondersteuning en dekt een breed scala aan domeinkennis."
|
541
508
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 ondersteunt grootschalige tekstgeneratie en instructie-analyse."
|
544
|
-
},
|
545
509
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
510
|
"description": "Llama 3 70B Instruct Lite is geschikt voor omgevingen die hoge prestaties en lage latentie vereisen."
|
547
511
|
},
|
@@ -716,18 +680,6 @@
|
|
716
680
|
"qwen-long": {
|
717
681
|
"description": "Qwen is een grootschalig taalmodel dat lange tekstcontexten ondersteunt, evenals dialoogfunctionaliteit op basis van lange documenten en meerdere documenten."
|
718
682
|
},
|
719
|
-
"qwen-max": {
|
720
|
-
"description": "Qwen is een grootschalig taalmodel met een schaal van miljarden parameters, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels, en is momenteel de API-model achter de Qwen 2.5 productversie."
|
721
|
-
},
|
722
|
-
"qwen-max-longcontext": {
|
723
|
-
"description": "Qwen is een grootschalig taalmodel met een schaal van miljarden parameters, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels, en heeft een uitgebreid contextvenster."
|
724
|
-
},
|
725
|
-
"qwen-plus": {
|
726
|
-
"description": "Qwen is een verbeterde versie van het grootschalige taalmodel, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels."
|
727
|
-
},
|
728
|
-
"qwen-turbo": {
|
729
|
-
"description": "Qwen is een grootschalig taalmodel dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels."
|
730
|
-
},
|
731
683
|
"qwen-vl-chat-v1": {
|
732
684
|
"description": "Qwen VL ondersteunt flexibele interactiemethoden, inclusief meerdere afbeeldingen, meerdere rondes van vraag en antwoord, en creatiecapaciteiten."
|
733
685
|
},
|
@@ -746,18 +698,6 @@
|
|
746
698
|
"qwen2": {
|
747
699
|
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
|
748
700
|
},
|
749
|
-
"qwen2-57b-a14b-instruct": {
|
750
|
-
"description": "Qwen2 is een open-source model met een schaal van 57B en 14B geactiveerde parameters in het MOE-model."
|
751
|
-
},
|
752
|
-
"qwen2-72b-instruct": {
|
753
|
-
"description": "Qwen2 is een open-source model met een schaal van 72B."
|
754
|
-
},
|
755
|
-
"qwen2-7b-instruct": {
|
756
|
-
"description": "Qwen2 is een open-source model met een schaal van 7B."
|
757
|
-
},
|
758
|
-
"qwen2-math-72b-instruct": {
|
759
|
-
"description": "Qwen2-Math model heeft krachtige wiskundige probleemoplossingscapaciteiten."
|
760
|
-
},
|
761
701
|
"qwen2:0.5b": {
|
762
702
|
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
|
763
703
|
},
|
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B, dzięki bogatym próbom treningowym, oferuje doskonałe wyniki w zastosowaniach branżowych."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 to ewolucyjna wersja serii Yi, charakteryzująca się wysokiej jakości wstępnym uczeniem się i bogatymi danymi do dostrajania."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B obsługuje 16K tokenów, oferując wydajne i płynne zdolności generowania języka."
|
10
7
|
},
|
@@ -53,36 +50,12 @@
|
|
53
50
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
51
|
"description": "Jako wersja testowa Qwen2, Qwen1.5 wykorzystuje dużą ilość danych do osiągnięcia bardziej precyzyjnych funkcji dialogowych."
|
55
52
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5, trenowany na dużych zbiorach danych, jest biegły w skomplikowanych zadaniach językowych."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 ma zdolności odpowiadania na pytania w wielu dziedzinach oraz generowania tekstu."
|
61
|
-
},
|
62
53
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
54
|
"description": "Qwen 1.5 Chat (72B) oferuje szybkie odpowiedzi i naturalne umiejętności dialogowe, idealne do środowisk wielojęzycznych."
|
64
55
|
},
|
65
|
-
"Qwen/Qwen1.5-7B-Chat": {
|
66
|
-
"description": "Qwen1.5 poprawia zdolności dialogowe poprzez połączenie zaawansowanego wstępnego uczenia się i dostrajania."
|
67
|
-
},
|
68
|
-
"Qwen/Qwen2-1.5B-Instruct": {
|
69
|
-
"description": "Qwen2 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instrukcyjnych."
|
70
|
-
},
|
71
|
-
"Qwen/Qwen2-57B-A14B-Instruct": {
|
72
|
-
"description": "Qwen2 to nowa seria, w której model 57B A14B wyróżnia się w zadaniach instrukcyjnych."
|
73
|
-
},
|
74
56
|
"Qwen/Qwen2-72B-Instruct": {
|
75
57
|
"description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń."
|
76
58
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania."
|
79
|
-
},
|
80
|
-
"Qwen/Qwen2-Math-72B-Instruct": {
|
81
|
-
"description": "Qwen2-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania."
|
82
|
-
},
|
83
|
-
"THUDM/chatglm3-6b": {
|
84
|
-
"description": "Jako dwujęzyczny model konwersacyjny, ChatGLM3 potrafi obsługiwać zadania związane z konwersją między językiem chińskim a angielskim."
|
85
|
-
},
|
86
59
|
"THUDM/glm-4-9b-chat": {
|
87
60
|
"description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych."
|
88
61
|
},
|
@@ -263,12 +236,6 @@
|
|
263
236
|
"databricks/dbrx-instruct": {
|
264
237
|
"description": "DBRX Instruct oferuje wysoką niezawodność w przetwarzaniu poleceń, wspierając różne branże."
|
265
238
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 zaprojektowano do zadań związanych z kodowaniem, koncentrując się na efektywnej generacji kodu."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 ma 6,7 miliarda parametrów, wspierając przetwarzanie tekstu w języku angielskim i chińskim."
|
271
|
-
},
|
272
239
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
240
|
"description": "DeepSeek V2.5 łączy doskonałe cechy wcześniejszych wersji, wzmacniając zdolności ogólne i kodowania."
|
274
241
|
},
|
@@ -539,9 +506,6 @@
|
|
539
506
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
507
|
"description": "LLaMA-3 Chat (8B) oferuje wsparcie dla wielu języków, obejmując bogatą wiedzę z różnych dziedzin."
|
541
508
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 wspiera generację dużych tekstów i analizę instrukcji."
|
544
|
-
},
|
545
509
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
510
|
"description": "Llama 3 70B Instruct Lite jest idealny do środowisk wymagających wysokiej wydajności i niskiego opóźnienia."
|
547
511
|
},
|
@@ -716,18 +680,6 @@
|
|
716
680
|
"qwen-long": {
|
717
681
|
"description": "Qwen to ultra-duży model językowy, który obsługuje długie konteksty tekstowe oraz funkcje dialogowe oparte na długich dokumentach i wielu dokumentach."
|
718
682
|
},
|
719
|
-
"qwen-max": {
|
720
|
-
"description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, obecnie będący modelem API za produktem Qwen 2.5."
|
721
|
-
},
|
722
|
-
"qwen-max-longcontext": {
|
723
|
-
"description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, z rozszerzonym oknem kontekstowym."
|
724
|
-
},
|
725
|
-
"qwen-plus": {
|
726
|
-
"description": "Qwen to ulepszona wersja ultra-dużego modelu językowego, która obsługuje różne języki, w tym chiński i angielski."
|
727
|
-
},
|
728
|
-
"qwen-turbo": {
|
729
|
-
"description": "Qwen to ultra-duży model językowy, który obsługuje różne języki, w tym chiński i angielski."
|
730
|
-
},
|
731
683
|
"qwen-vl-chat-v1": {
|
732
684
|
"description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze."
|
733
685
|
},
|
@@ -746,18 +698,6 @@
|
|
746
698
|
"qwen2": {
|
747
699
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
748
700
|
},
|
749
|
-
"qwen2-57b-a14b-instruct": {
|
750
|
-
"description": "Qwen 2 to otwarty model o skali 57B z 14B aktywowanymi parametrami w modelu MOE."
|
751
|
-
},
|
752
|
-
"qwen2-72b-instruct": {
|
753
|
-
"description": "Qwen 2 to otwarty model o skali 72B."
|
754
|
-
},
|
755
|
-
"qwen2-7b-instruct": {
|
756
|
-
"description": "Qwen 2 to otwarty model o skali 7B."
|
757
|
-
},
|
758
|
-
"qwen2-math-72b-instruct": {
|
759
|
-
"description": "Model Qwen2-Math ma silne zdolności rozwiązywania problemów matematycznych."
|
760
|
-
},
|
761
701
|
"qwen2:0.5b": {
|
762
702
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
763
703
|
},
|
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B, com um rico conjunto de amostras de treinamento, oferece desempenho superior em aplicações industriais."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 é a versão evoluída da série Yi, com pré-treinamento de alta qualidade e dados de ajuste fino ricos."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B suporta 16K Tokens, oferecendo capacidade de geração de linguagem eficiente e fluida."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B) oferece saídas de linguagem otimizadas e diversas possibilidades de aplicação."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "Atualização do modelo Phi-3-mini."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "Mesmo modelo Phi-3-medium, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "Um modelo de 14B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "Mesmo modelo Phi-3-mini, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "O menor membro da família Phi-3. Otimizado tanto para qualidade quanto para baixa latência."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "Mesmo modelo Phi-3-small, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "Um modelo de 7B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "Como uma versão de teste do Qwen2, Qwen1.5 utiliza dados em larga escala para alcançar funcionalidades de diálogo mais precisas."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5 é treinado com um grande conjunto de dados, especializado em tarefas linguísticas complexas."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 possui habilidades de perguntas e respostas em múltiplos domínios e geração de texto."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B) oferece respostas rápidas e capacidade de diálogo natural, adequado para ambientes multilíngues."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2 é uma nova série de modelos de linguagem
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2 é uma nova série
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2 é
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, com maior capacidade de compreensão e geração."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 é uma nova série de modelos de linguagem
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder foca na escrita de código."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "Um modelo multilíngue com 398B de parâmetros (94B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "Um modelo multilíngue com 52B de parâmetros (12B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "Um modelo LLM baseado em Mamba de qualidade de produção para alcançar desempenho, qualidade e eficiência de custo de classe mundial."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "Command R é um modelo generativo escalável voltado para RAG e uso de ferramentas, permitindo IA em escala de produção para empresas."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct oferece capacidade de processamento de instruções altamente confiável, suportando aplicações em diversos setores."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 é projetado para tarefas de código, focando na geração de código eficiente."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 possui 6.7 bilhões de parâmetros, suportando processamento de texto em inglês e chinês."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5 combina as excelentes características das versões anteriores, aprimorando a capacidade geral e de codificação."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "Um modelo versátil com 8 bilhões de parâmetros, otimizado para tarefas de diálogo e geração de texto."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "Os modelos de texto apenas ajustados por instrução Llama 3.1 são otimizados para casos de uso de diálogo multilíngue e superam muitos dos modelos de chat de código aberto e fechado disponíveis em benchmarks comuns da indústria."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B) oferece suporte multilíngue, abrangendo um rico conhecimento em diversas áreas."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 suporta geração de texto de grande capacidade e interpretação de instruções."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite é ideal para ambientes que exigem alta eficiência e baixa latência."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407) é um modelo de linguagem avançado (LLM) com capacidades de raciocínio, conhecimento e codificação de última geração."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large é o modelo de destaque, especializado em tarefas multilíngues, raciocínio complexo e geração de código, sendo a escolha ideal para aplicações de alto nível."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração entre a Mistral AI e a NVIDIA, oferecendo desempenho eficiente."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "Mistral Small pode ser usado em qualquer tarefa baseada em linguagem que exija alta eficiência e baixa latência."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small é uma opção de alto custo-benefício, rápida e confiável, adequada para casos de uso como tradução, resumo e análise de sentimentos."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "Modelo de código Qwen."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "O Qwen é um modelo de linguagem em larga escala que suporta contextos de texto longos e funcionalidades de diálogo baseadas em documentos longos e múltiplos cenários."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "O
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "O
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "O
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "O modelo de linguagem em larga escala Qwen Max, com trilhões de parâmetros, que suporta entradas em diferentes idiomas, incluindo chinês e inglês, e é o modelo de API por trás da versão do produto Qwen 2.5."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "A versão aprimorada do modelo de linguagem em larga escala Qwen Plus, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "O modelo de linguagem em larga escala Qwen Turbo, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "Modelo de 14B parâmetros do Qwen 2.5, disponível como código aberto."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "Modelo de 32B parâmetros do Qwen 2.5, disponível como código aberto."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "Modelo de 72B parâmetros do Qwen 2.5, disponível como código aberto."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "Versão de código aberto do modelo de código Qwen."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "Versão de código aberto do modelo de código Qwen."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "O
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "O
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "O modelo
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "Com os Modelos do GitHub, os desenvolvedores podem se tornar engenheiros de IA e construir com os principais modelos de IA da indústria."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pela Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, melhorando significativamente a eficiência e a aplicabilidade dos modelos de IA."
|
25
29
|
},
|