@lobehub/chat 1.19.14 → 1.19.16
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/locales/ar/models.json +116 -48
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +116 -48
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +116 -48
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +116 -48
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +116 -48
- package/locales/es-ES/providers.json +4 -0
- package/locales/fr-FR/models.json +116 -48
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +116 -48
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +116 -48
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +116 -48
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +116 -48
- package/locales/nl-NL/providers.json +4 -0
- package/locales/pl-PL/models.json +0 -60
- package/locales/pl-PL/providers.json +4 -0
- package/locales/pt-BR/models.json +116 -48
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +116 -48
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +116 -48
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +0 -60
- package/locales/zh-CN/models.json +122 -54
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +116 -48
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +1 -1
- package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-output.json +17 -198
- package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-raw.json +0 -92
- package/src/libs/unstructured/__tests__/index.test.ts +3 -3
- package/src/store/global/action.test.ts +53 -0
- package/src/store/global/action.ts +16 -2
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B biedt superieure prestaties in de industrie met rijke trainingsvoorbeelden."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 is de evolutie van de Yi-serie, met hoogwaardige voortraining en rijke fijnstellingsdata."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B ondersteunt 16K tokens en biedt efficiënte, vloeiende taalgeneratiecapaciteiten."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B) biedt geoptimaliseerde taaloutput en diverse toepassingsmogelijkheden."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "Vernieuwing van het Phi-3-mini model."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "Hetzelfde Phi-3-medium model, maar met een grotere contextgrootte voor RAG of few shot prompting."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "Een model met 14 miljard parameters, biedt betere kwaliteit dan Phi-3-mini, met een focus op hoogwaardige, redeneringsdichte gegevens."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "Hetzelfde Phi-3-mini model, maar met een grotere contextgrootte voor RAG of few shot prompting."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "De kleinste lid van de Phi-3 familie. Geoptimaliseerd voor zowel kwaliteit als lage latentie."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "Hetzelfde Phi-3-small model, maar met een grotere contextgrootte voor RAG of few shot prompting."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "Een model met 7 miljard parameters, biedt betere kwaliteit dan Phi-3-mini, met een focus op hoogwaardige, redeneringsdichte gegevens."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K is uitgerust met een enorme contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken, bijzonder geschikt voor lange teksten die volledige analyse en langdurige logische verbanden vereisen, en biedt vloeiende en consistente logica met diverse referenties in complexe tekstcommunicatie."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "Als testversie van Qwen2 biedt Qwen1.5 nauwkeurigere gespreksfunctionaliteit door gebruik te maken van grootschalige gegevens."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5 is getraind op een grote dataset en is bedreven in complexe taalopdrachten."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 heeft de capaciteit voor vraag-en-antwoord en tekstgeneratie in meerdere domeinen."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B) biedt snelle reacties en natuurlijke gesprekscapaciteiten, geschikt voor meertalige omgevingen."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2 is een nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2 is een nieuwe serie,
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2 is een
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, met sterkere begrip- en generatiecapaciteiten."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 is een nieuwe serie grote taalmodellen
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5 is een geheel nieuwe serie van grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder richt zich op het schrijven van code."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math richt zich op het oplossen van wiskundige vraagstukken en biedt professionele antwoorden op moeilijke vragen."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B is de open-source versie die een geoptimaliseerde gesprekservaring biedt voor gespreksapplicaties."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "Yi-Large model, met uitstekende meertalige verwerkingscapaciteiten, geschikt voor verschillende taalgeneratie- en begripstaken."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "Een meertalig model met 398 miljard parameters (94 miljard actief), biedt een contextvenster van 256K, functieaanroep, gestructureerde output en gegronde generatie."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "Een meertalig model met 52 miljard parameters (12 miljard actief), biedt een contextvenster van 256K, functieaanroep, gestructureerde output en gegronde generatie."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "Een productieklare Mamba-gebaseerde LLM-model om de beste prestaties, kwaliteit en kostenefficiëntie te bereiken."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B is een model ontworpen voor instructievolging, gesprekken en programmeren."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "Command R is een schaalbaar generatief model gericht op RAG en Tool Use om productie-schaal AI voor ondernemingen mogelijk te maken."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "Command R+ is een state-of-the-art RAG-geoptimaliseerd model ontworpen om enterprise-grade workloads aan te pakken."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R is geoptimaliseerd voor conversatie- en lange contexttaken, bijzonder geschikt voor dynamische interactie en kennisbeheer."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct biedt betrouwbare instructieverwerkingscapaciteiten en ondersteunt toepassingen in verschillende sectoren."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 is ontworpen voor code-taken en richt zich op efficiënte codegeneratie."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 heeft 6,7 miljard parameters en ondersteunt de verwerking van Engelse en Chinese teksten."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5 combineert de uitstekende kenmerken van eerdere versies en versterkt de algemene en coderingscapaciteiten."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "Llama 3.1 70B Instruct model, met 70B parameters, biedt uitstekende prestaties in grote tekstgeneratie- en instructietaken."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral is ontworpen voor wetenschappelijk onderzoek en wiskundige inferentie, biedt effectieve rekencapaciteiten en resultaatinterpretatie."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltoepassingen."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "Een veelzijdig model met 8 miljard parameters, geoptimaliseerd voor dialoog- en tekstgeneratietaken."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "De Llama 3.1 instructie-geoptimaliseerde tekstmodellen zijn geoptimaliseerd voor meertalige dialoogtoepassingen en presteren beter dan veel beschikbare open source en gesloten chatmodellen op gangbare industriële benchmarks."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "De Llama 3.1 instructie-geoptimaliseerde tekstmodellen zijn geoptimaliseerd voor meertalige dialoogtoepassingen en presteren beter dan veel beschikbare open source en gesloten chatmodellen op gangbare industriële benchmarks."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "De Llama 3.1 instructie-geoptimaliseerde tekstmodellen zijn geoptimaliseerd voor meertalige dialoogtoepassingen en presteren beter dan veel beschikbare open source en gesloten chatmodellen op gangbare industriële benchmarks."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B) biedt uitstekende taalverwerkingscapaciteiten en een geweldige interactie-ervaring."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B) biedt meertalige ondersteuning en dekt een breed scala aan domeinkennis."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 ondersteunt grootschalige tekstgeneratie en instructie-analyse."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite is geschikt voor omgevingen die hoge prestaties en lage latentie vereisen."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large is het vlaggenschipmodel van Mistral, dat de capaciteiten van codegeneratie, wiskunde en inferentie combineert, ondersteunt een contextvenster van 128k."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407) is een geavanceerd Large Language Model (LLM) met state-of-the-art redenerings-, kennis- en coderingscapaciteiten."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large is het vlaggenschipmodel, dat uitblinkt in meertalige taken, complexe inferentie en codegeneratie, ideaal voor high-end toepassingen."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo is een 12B-model dat is ontwikkeld in samenwerking met Mistral AI en NVIDIA, biedt efficiënte prestaties."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "Mistral Small kan worden gebruikt voor elke taalkundige taak die hoge efficiëntie en lage latentie vereist."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small is een kosteneffectieve, snelle en betrouwbare optie voor gebruikscases zoals vertaling, samenvatting en sentimentanalyse."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct staat bekend om zijn hoge prestaties en is geschikt voor verschillende taalgerelateerde taken."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3 is een lichtgewicht open model van Microsoft, geschikt voor efficiënte integratie en grootschalige kennisinferentie."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "Het Pixtral model toont sterke capaciteiten in taken zoals grafiek- en beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructievolging, en kan afbeeldingen met natuurlijke resolutie en beeldverhouding verwerken, evenals een onbeperkt aantal afbeeldingen in een lange contextvenster van maximaal 128K tokens."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "Het Tongyi Qianwen codeermodel."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "Qwen is een grootschalig taalmodel dat lange tekstcontexten ondersteunt, evenals dialoogfunctionaliteit op basis van lange documenten en meerdere documenten."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "Het Tongyi Qianwen wiskundemodel is speciaal ontworpen voor het oplossen van wiskundige problemen."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "Het Tongyi Qianwen wiskundemodel is speciaal ontworpen voor het oplossen van wiskundige problemen."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "Het Tongyi Qianwen model met een schaal van honderden miljarden, ondersteunt invoer in verschillende talen, waaronder Chinees en Engels, en is de API-model achter de huidige Tongyi Qianwen 2.5 productversie."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "De verbeterde versie van het Tongyi Qianwen supergrote taalmodel ondersteunt invoer in verschillende talen, waaronder Chinees en Engels."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "De Tongyi Qianwen supergrote taalmodel ondersteunt invoer in verschillende talen, waaronder Chinees en Engels."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "Qwen VL ondersteunt flexibele interactiemethoden, inclusief meerdere afbeeldingen, meerdere rondes van vraag en antwoord, en creatiecapaciteiten."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "Het 14B model van Tongyi Qianwen 2.5 is open source beschikbaar."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "Het 32B model van Tongyi Qianwen 2.5 is open source beschikbaar."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "Het 72B model van Tongyi Qianwen 2.5 is open source beschikbaar."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "Het 7B model van Tongyi Qianwen 2.5 is open source beschikbaar."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "De open source versie van het Tongyi Qianwen codeermodel."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "De open source versie van het Tongyi Qianwen codeermodel."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "360 AI is een AI-model- en serviceplatform gelanceerd door het bedrijf 360, dat verschillende geavanceerde modellen voor natuurlijke taalverwerking biedt, waaronder 360GPT2 Pro, 360GPT Pro, 360GPT Turbo en 360GPT Turbo Responsibility 8K. Deze modellen combineren grootschalige parameters en multimodale capaciteiten, en worden breed toegepast in tekstgeneratie, semantisch begrip, dialoogsystemen en codegeneratie. Met flexibele prijsstrategieën voldoet 360 AI aan diverse gebruikersbehoeften, ondersteunt het ontwikkelaars bij integratie en bevordert het de innovatie en ontwikkeling van intelligente toepassingen."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI is een toonaangevende aanbieder van geavanceerde taalmodellen, met een focus op functionele aanroepen en multimodale verwerking. Hun nieuwste model Firefunction V2 is gebaseerd op Llama-3 en geoptimaliseerd voor functieaanroepen, dialogen en het volgen van instructies. Het visuele taalmodel FireLLaVA-13B ondersteunt gemengde invoer van afbeeldingen en tekst. Andere opmerkelijke modellen zijn de Llama-serie en de Mixtral-serie, die efficiënte ondersteuning bieden voor meertalig volgen van instructies en genereren."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "Met GitHub-modellen kunnen ontwikkelaars AI-ingenieurs worden en bouwen met de toonaangevende AI-modellen in de industrie."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "De Gemini-serie van Google is hun meest geavanceerde, algemene AI-modellen, ontwikkeld door Google DeepMind, speciaal ontworpen voor multimodale toepassingen, en ondersteunt naadloze begrip en verwerking van tekst, code, afbeeldingen, audio en video. Geschikt voor verschillende omgevingen, van datacenters tot mobiele apparaten, verhoogt het de efficiëntie en toepasbaarheid van AI-modellen aanzienlijk."
|
25
29
|
},
|
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B, dzięki bogatym próbom treningowym, oferuje doskonałe wyniki w zastosowaniach branżowych."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 to ewolucyjna wersja serii Yi, charakteryzująca się wysokiej jakości wstępnym uczeniem się i bogatymi danymi do dostrajania."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B obsługuje 16K tokenów, oferując wydajne i płynne zdolności generowania języka."
|
10
7
|
},
|
@@ -53,36 +50,12 @@
|
|
53
50
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
51
|
"description": "Jako wersja testowa Qwen2, Qwen1.5 wykorzystuje dużą ilość danych do osiągnięcia bardziej precyzyjnych funkcji dialogowych."
|
55
52
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5, trenowany na dużych zbiorach danych, jest biegły w skomplikowanych zadaniach językowych."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 ma zdolności odpowiadania na pytania w wielu dziedzinach oraz generowania tekstu."
|
61
|
-
},
|
62
53
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
54
|
"description": "Qwen 1.5 Chat (72B) oferuje szybkie odpowiedzi i naturalne umiejętności dialogowe, idealne do środowisk wielojęzycznych."
|
64
55
|
},
|
65
|
-
"Qwen/Qwen1.5-7B-Chat": {
|
66
|
-
"description": "Qwen1.5 poprawia zdolności dialogowe poprzez połączenie zaawansowanego wstępnego uczenia się i dostrajania."
|
67
|
-
},
|
68
|
-
"Qwen/Qwen2-1.5B-Instruct": {
|
69
|
-
"description": "Qwen2 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instrukcyjnych."
|
70
|
-
},
|
71
|
-
"Qwen/Qwen2-57B-A14B-Instruct": {
|
72
|
-
"description": "Qwen2 to nowa seria, w której model 57B A14B wyróżnia się w zadaniach instrukcyjnych."
|
73
|
-
},
|
74
56
|
"Qwen/Qwen2-72B-Instruct": {
|
75
57
|
"description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń."
|
76
58
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania."
|
79
|
-
},
|
80
|
-
"Qwen/Qwen2-Math-72B-Instruct": {
|
81
|
-
"description": "Qwen2-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania."
|
82
|
-
},
|
83
|
-
"THUDM/chatglm3-6b": {
|
84
|
-
"description": "Jako dwujęzyczny model konwersacyjny, ChatGLM3 potrafi obsługiwać zadania związane z konwersją między językiem chińskim a angielskim."
|
85
|
-
},
|
86
59
|
"THUDM/glm-4-9b-chat": {
|
87
60
|
"description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych."
|
88
61
|
},
|
@@ -263,12 +236,6 @@
|
|
263
236
|
"databricks/dbrx-instruct": {
|
264
237
|
"description": "DBRX Instruct oferuje wysoką niezawodność w przetwarzaniu poleceń, wspierając różne branże."
|
265
238
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 zaprojektowano do zadań związanych z kodowaniem, koncentrując się na efektywnej generacji kodu."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 ma 6,7 miliarda parametrów, wspierając przetwarzanie tekstu w języku angielskim i chińskim."
|
271
|
-
},
|
272
239
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
240
|
"description": "DeepSeek V2.5 łączy doskonałe cechy wcześniejszych wersji, wzmacniając zdolności ogólne i kodowania."
|
274
241
|
},
|
@@ -539,9 +506,6 @@
|
|
539
506
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
507
|
"description": "LLaMA-3 Chat (8B) oferuje wsparcie dla wielu języków, obejmując bogatą wiedzę z różnych dziedzin."
|
541
508
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 wspiera generację dużych tekstów i analizę instrukcji."
|
544
|
-
},
|
545
509
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
510
|
"description": "Llama 3 70B Instruct Lite jest idealny do środowisk wymagających wysokiej wydajności i niskiego opóźnienia."
|
547
511
|
},
|
@@ -716,18 +680,6 @@
|
|
716
680
|
"qwen-long": {
|
717
681
|
"description": "Qwen to ultra-duży model językowy, który obsługuje długie konteksty tekstowe oraz funkcje dialogowe oparte na długich dokumentach i wielu dokumentach."
|
718
682
|
},
|
719
|
-
"qwen-max": {
|
720
|
-
"description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, obecnie będący modelem API za produktem Qwen 2.5."
|
721
|
-
},
|
722
|
-
"qwen-max-longcontext": {
|
723
|
-
"description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, z rozszerzonym oknem kontekstowym."
|
724
|
-
},
|
725
|
-
"qwen-plus": {
|
726
|
-
"description": "Qwen to ulepszona wersja ultra-dużego modelu językowego, która obsługuje różne języki, w tym chiński i angielski."
|
727
|
-
},
|
728
|
-
"qwen-turbo": {
|
729
|
-
"description": "Qwen to ultra-duży model językowy, który obsługuje różne języki, w tym chiński i angielski."
|
730
|
-
},
|
731
683
|
"qwen-vl-chat-v1": {
|
732
684
|
"description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze."
|
733
685
|
},
|
@@ -746,18 +698,6 @@
|
|
746
698
|
"qwen2": {
|
747
699
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
748
700
|
},
|
749
|
-
"qwen2-57b-a14b-instruct": {
|
750
|
-
"description": "Qwen 2 to otwarty model o skali 57B z 14B aktywowanymi parametrami w modelu MOE."
|
751
|
-
},
|
752
|
-
"qwen2-72b-instruct": {
|
753
|
-
"description": "Qwen 2 to otwarty model o skali 72B."
|
754
|
-
},
|
755
|
-
"qwen2-7b-instruct": {
|
756
|
-
"description": "Qwen 2 to otwarty model o skali 7B."
|
757
|
-
},
|
758
|
-
"qwen2-math-72b-instruct": {
|
759
|
-
"description": "Model Qwen2-Math ma silne zdolności rozwiązywania problemów matematycznych."
|
760
|
-
},
|
761
701
|
"qwen2:0.5b": {
|
762
702
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
763
703
|
},
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "360 AI to platforma modeli i usług AI wprowadzona przez firmę 360, oferująca różnorodne zaawansowane modele przetwarzania języka naturalnego, w tym 360GPT2 Pro, 360GPT Pro, 360GPT Turbo i 360GPT Turbo Responsibility 8K. Modele te łączą dużą liczbę parametrów z multimodalnymi zdolnościami, szeroko stosowanymi w generowaniu tekstu, rozumieniu semantycznym, systemach dialogowych i generowaniu kodu. Dzięki elastycznej strategii cenowej, 360 AI zaspokaja zróżnicowane potrzeby użytkowników, wspierając integrację przez deweloperów, co przyczynia się do innowacji i rozwoju aplikacji inteligentnych."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI to wiodący dostawca zaawansowanych modeli językowych, skoncentrowany na wywołaniach funkcji i przetwarzaniu multimodalnym. Jego najnowszy model Firefunction V2 oparty na Llama-3, zoptymalizowany do wywołań funkcji, dialogów i przestrzegania instrukcji. Model wizualny FireLLaVA-13B wspiera mieszane wejścia obrazów i tekstu. Inne znaczące modele to seria Llama i seria Mixtral, oferujące efektywne wsparcie dla wielojęzycznego przestrzegania instrukcji i generacji."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "Dzięki modelom GitHub, deweloperzy mogą stać się inżynierami AI i budować z wykorzystaniem wiodących modeli AI w branży."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "Seria Gemini od Google to najnowocześniejsze, uniwersalne modele AI stworzone przez Google DeepMind, zaprojektowane z myślą o multimodalności, wspierające bezproblemowe rozumienie i przetwarzanie tekstu, kodu, obrazów, dźwięku i wideo. Nadają się do różnych środowisk, od centrów danych po urządzenia mobilne, znacznie zwiększając wydajność i wszechstronność modeli AI."
|
25
29
|
},
|