@lobehub/chat 1.19.14 → 1.19.16

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (40) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/locales/ar/models.json +116 -48
  3. package/locales/ar/providers.json +4 -0
  4. package/locales/bg-BG/models.json +116 -48
  5. package/locales/bg-BG/providers.json +4 -0
  6. package/locales/de-DE/models.json +116 -48
  7. package/locales/de-DE/providers.json +4 -0
  8. package/locales/en-US/models.json +116 -48
  9. package/locales/en-US/providers.json +4 -0
  10. package/locales/es-ES/models.json +116 -48
  11. package/locales/es-ES/providers.json +4 -0
  12. package/locales/fr-FR/models.json +116 -48
  13. package/locales/fr-FR/providers.json +4 -0
  14. package/locales/it-IT/models.json +116 -48
  15. package/locales/it-IT/providers.json +4 -0
  16. package/locales/ja-JP/models.json +116 -48
  17. package/locales/ja-JP/providers.json +4 -0
  18. package/locales/ko-KR/models.json +116 -48
  19. package/locales/ko-KR/providers.json +4 -0
  20. package/locales/nl-NL/models.json +116 -48
  21. package/locales/nl-NL/providers.json +4 -0
  22. package/locales/pl-PL/models.json +0 -60
  23. package/locales/pl-PL/providers.json +4 -0
  24. package/locales/pt-BR/models.json +116 -48
  25. package/locales/pt-BR/providers.json +4 -0
  26. package/locales/ru-RU/models.json +116 -48
  27. package/locales/ru-RU/providers.json +4 -0
  28. package/locales/tr-TR/models.json +116 -48
  29. package/locales/tr-TR/providers.json +4 -0
  30. package/locales/vi-VN/models.json +0 -60
  31. package/locales/zh-CN/models.json +122 -54
  32. package/locales/zh-CN/providers.json +4 -0
  33. package/locales/zh-TW/models.json +116 -48
  34. package/locales/zh-TW/providers.json +4 -0
  35. package/package.json +1 -1
  36. package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-output.json +17 -198
  37. package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-raw.json +0 -92
  38. package/src/libs/unstructured/__tests__/index.test.ts +3 -3
  39. package/src/store/global/action.test.ts +53 -0
  40. package/src/store/global/action.ts +16 -2
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B предлага отлични резултати в индустриалните приложения с богат набор от обучителни примери."
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 е еволюционна версия на серията Yi, с високо качество на предварителното обучение и богати данни за фино настройване."
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B поддържа 16K токена, предоставяйки ефективни и плавни способности за генериране на език."
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B) предлага оптимизирани езикови изходи и разнообразни възможности за приложение."
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Обновление на модела Phi-3-mini."
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "Същият модел Phi-3-medium, но с по-голям размер на контекста за RAG или малко подканване."
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "Модел с 14B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "Същият модел Phi-3-mini, но с по-голям размер на контекста за RAG или малко подканване."
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "Най-малкият член на семейството Phi-3. Оптимизиран както за качество, така и за ниска латентност."
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "Същият модел Phi-3-small, но с по-голям размер на контекста за RAG или малко подканване."
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "Модел с 7B параметри, предлагащ по-добро качество от Phi-3-mini, с акцент върху висококачествени, плътни на разсъждения данни."
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
72
  "description": "Като тестова версия на Qwen2, Qwen1.5 използва големи данни за постигане на по-точни диалогови функции."
55
73
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5 е обучен с големи набори от данни и е специализиран в сложни езикови задачи."
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 притежава способности за отговори на въпроси в множество области и генериране на текст."
61
- },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B) предлага бързи отговори и естествени диалогови способности, подходящи за многоезични среди."
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 подобрява способността за диалогово изразяване чрез комбиниране на напреднало предварително обучение и фино настройване."
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 е нова серия от големи езикови модели, предназначена за оптимизиране на обработката на инструкции."
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 е нова серия, при която моделът 57B A14B показва отлични резултати в задачите с инструкции."
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкции."
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math се фокусира върху решаването на проблеми в математическата област, предоставяйки професионални отговори на трудни задачи."
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder се фокусира върху писането на код."
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "Като двуезичен разговорен езиков модел, ChatGLM3 може да обработва задачи за превод между китайски и английски."
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math се фокусира върху решаването на математически проблеми, предоставяйки професионални отговори на трудни задачи."
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения."
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "Yi-Large модел, предлагащ изключителни способности за многоезична обработка, подходящ за различни задачи по генериране и разбиране на език."
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "Многоезичен модел с 398B параметри (94B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "Многоезичен модел с 52B параметри (12B активни), предлагащ контекстен прозорец с дължина 256K, извикване на функции, структурирани изходи и генериране на основа."
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "Модел на базата на Mamba, проектиран за постигане на най-добри резултати, качество и ефективност на разходите."
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B е модел, проектиран за следване на инструкции, диалози и програмиране."
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R е мащабируем генеративен модел, насочен към RAG и използване на инструменти, за да позволи AI на производствено ниво за предприятия."
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие."
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания."
259
286
  },
@@ -263,12 +290,6 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct предлага висока надеждност в обработката на инструкции, поддържаща приложения в множество индустрии."
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 е проектиран за кодови задачи, с фокус върху ефективното генериране на код."
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 разполага с 6.7 милиарда параметри и поддържа обработка на текст на английски и китайски."
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5 обединява отличителните характеристики на предишните версии, подобрявайки общите и кодиращите способности."
274
295
  },
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции."
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати."
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "Универсален модел с 8 милиарда параметри, оптимизиран за диалогови и текстови генериращи задачи."
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "Моделите на Llama 3.1, настроени за инструкции, са оптимизирани за многоезични диалогови случаи на употреба и надминават много от наличните модели с отворен код и затворени чат модели на общи индустриални стандарти."
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит."
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B) предлага многоезична поддръжка, обхващаща богати области на знание."
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 поддържа генериране на големи обеми текст и анализ на инструкции."
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite е подходящ за среди, изискващи висока производителност и ниска латентност."
547
582
  },
@@ -620,12 +655,21 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k."
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407) е напреднал модел на езика (LLM) с най-съвременни способности за разсъждение, знание и кодиране."
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large е флагманският модел, специализиран в многоезични задачи, сложни разсъждения и генериране на код, идеален за висококачествени приложения."
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo е 12B модел, разработен в сътрудничество между Mistral AI и NVIDIA, предлагащ ефективна производителност."
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small може да се използва за всяка езикова задача, която изисква висока ефективност и ниска латентност."
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small е икономически ефективен, бърз и надежден вариант, подходящ за случаи на употреба като превод, резюме и анализ на настроението."
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct е известен с високата си производителност, подходящ за множество езикови задачи."
631
675
  },
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение."
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "Моделът на кода Qwen."
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "Qwen е мащабен езиков модел, който поддържа дълги текстови контексти и диалогови функции, базирани на дълги документи и множество документи."
718
768
  },
719
- "qwen-max": {
720
- "description": "Qwen е мащабен езиков модел с ниво на 100 милиарда параметри, който поддържа вход на различни езици, включително китайски и английски, в момента е API моделът зад версията на продукта Qwen 2.5."
769
+ "qwen-math-plus-latest": {
770
+ "description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "Qwen е мащабен езиков модел с ниво на 100 милиарда параметри, който поддържа вход на различни езици, включително китайски и английски, разширявайки контекстуалния прозорец."
772
+ "qwen-math-turbo-latest": {
773
+ "description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
724
774
  },
725
- "qwen-plus": {
726
- "description": "Qwen е подобрена версия на мащабния езиков модел, която поддържа вход на различни езици, включително китайски и английски."
775
+ "qwen-max-latest": {
776
+ "description": "Qwen Max е езиков модел с мащаб от стотици милиарди параметри, който поддържа вход на различни езици, включително китайски и английски. В момента е основният API модел зад версията на продукта Qwen 2.5."
727
777
  },
728
- "qwen-turbo": {
729
- "description": "Qwen е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
778
+ "qwen-plus-latest": {
779
+ "description": "Разширената версия на Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "Моделът на езика Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др."
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "Qwen2 е отворен модел с 57B параметри и 14B активирани параметри в MOE модела."
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "Модел с мащаб 14B, отворен за обществеността от Qwen 2.5."
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "Модел с мащаб 32B, отворен за обществеността от Qwen 2.5."
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "Модел с мащаб 72B, отворен за обществеността от Qwen 2.5."
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5."
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "Отворената версия на модела на кода Qwen."
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "Отворената версия на модела на кода Qwen."
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "Qwen2 е отворен модел с 72B параметри."
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "Qwen2 е отворен модел с 7B параметри."
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Qwen2-Math моделът разполага с мощни способности за решаване на математически задачи."
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI е платформа за AI модели и услуги, предлагана от компания 360, предлагаща множество напреднали модели за обработка на естествен език, включително 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Тези модели комбинират голям брой параметри и мултимодални способности, широко използвани в текстово генериране, семантично разбиране, диалогови системи и генериране на код. Чрез гъвкава ценова стратегия, 360 AI отговаря на разнообразни потребителски нужди, поддържайки интеграция за разработчици и насърчавайки иновации и развитие на интелигентни приложения."
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI е водещ доставчик на напреднали езикови модели, фокусирайки се върху извикване на функции и мултимодална обработка. Най-новият им модел Firefunction V2, базиран на Llama-3, е оптимизиран за извикване на функции, диалози и следване на инструкции. Визуалният езиков модел FireLLaVA-13B поддържа смесени входове от изображения и текст. Други забележителни модели включват серията Llama и серията Mixtral, предлагащи ефективна поддръжка за многоезично следване на инструкции и генериране."
22
23
  },
24
+ "github": {
25
+ "description": "С моделите на GitHub разработчиците могат да станат AI инженери и да изграждат с водещите AI модели в индустрията."
26
+ },
23
27
  "google": {
24
28
  "description": "Серията Gemini на Google е най-напредналият и универсален AI модел, разработен от Google DeepMind, проектиран за мултимодално разбиране и обработка на текст, код, изображения, аудио и видео. Подходящ за различни среди, от центрове за данни до мобилни устройства, значително увеличава ефективността и приложимостта на AI моделите."
25
29
  },
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B bietet mit umfangreichen Trainingsbeispielen überlegene Leistungen in der Branchenanwendung."
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 ist die evolutionäre Version der Yi-Serie mit hochwertigem Vortraining und umfangreichen Feinabstimmungsdaten."
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B unterstützt 16K Tokens und bietet effiziente, flüssige Sprachgenerierungsfähigkeiten."
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B) bietet optimierte Sprachausgaben und vielfältige Anwendungsmöglichkeiten."
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Aktualisierung des Phi-3-mini-Modells."
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "Das gleiche Phi-3-medium-Modell, jedoch mit einer größeren Kontextgröße für RAG oder Few-Shot-Prompting."
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "Ein Modell mit 14 Milliarden Parametern, das eine bessere Qualität als Phi-3-mini bietet und sich auf qualitativ hochwertige, reasoning-dense Daten konzentriert."
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "Das gleiche Phi-3-mini-Modell, jedoch mit einer größeren Kontextgröße für RAG oder Few-Shot-Prompting."
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "Das kleinste Mitglied der Phi-3-Familie. Optimiert für Qualität und geringe Latenz."
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "Das gleiche Phi-3-small-Modell, jedoch mit einer größeren Kontextgröße für RAG oder Few-Shot-Prompting."
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "Ein Modell mit 7 Milliarden Parametern, das eine bessere Qualität als Phi-3-mini bietet und sich auf qualitativ hochwertige, reasoning-dense Daten konzentriert."
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K ist mit einer extrem großen Kontextverarbeitungsfähigkeit ausgestattet, die bis zu 128K Kontextinformationen verarbeiten kann, besonders geeignet für lange Texte, die eine umfassende Analyse und langfristige logische Verknüpfung erfordern, und bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Zitationsunterstützung."
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
72
  "description": "Als Testversion von Qwen2 bietet Qwen1.5 präzisere Dialogfunktionen durch den Einsatz großer Datenmengen."
55
73
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5 ist durch das Training mit umfangreichen Datensätzen in der Lage, komplexe Sprachaufgaben zu bewältigen."
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 verfügt über Fähigkeiten in der Beantwortung von Fragen aus mehreren Bereichen und der Textgenerierung."
61
- },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B) bietet schnelle Antworten und natürliche Dialogfähigkeiten, die sich für mehrsprachige Umgebungen eignen."
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 verbessert die Dialogausdrucksfähigkeit durch die Kombination von fortgeschrittenem Vortraining und Feinabstimmung."
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt."
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 ist eine neue Serie großer Sprachmodelle, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren."
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren."
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 ist eine neue Serie, bei der das 57B A14B-Modell in Anweisungstasks herausragende Leistungen zeigt."
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren."
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt."
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen mit verbesserter Verständnis- und Generierungsfähigkeit."
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 ist eine neue Serie großer Sprachmodelle mit stärkeren Verständnis- und Generierungsfähigkeiten."
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5 ist eine brandneue Serie von großen Sprachmodellen, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren."
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Antworten auf schwierige Aufgaben."
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder konzentriert sich auf die Programmierung."
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "Als zweisprachiges Konversationssprachmodell kann ChatGLM3 Aufgaben zur Umwandlung zwischen Chinesisch und Englisch verarbeiten."
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Lösungen für schwierige Aufgaben."
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B ist die Open-Source-Version, die ein optimiertes Dialogerlebnis für Konversationsanwendungen bietet."
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "Das Yi-Large-Modell bietet hervorragende mehrsprachige Verarbeitungsfähigkeiten und kann für verschiedene Sprachgenerierungs- und Verständnisaufgaben eingesetzt werden."
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "Ein mehrsprachiges Modell mit 398 Milliarden Parametern (94 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und fundierte Generierung bietet."
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "Ein mehrsprachiges Modell mit 52 Milliarden Parametern (12 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und fundierte Generierung bietet."
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "Ein produktionsreifes Mamba-basiertes LLM-Modell, das eine erstklassige Leistung, Qualität und Kosteneffizienz erreicht."
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält."
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B ist ein Modell, das für die Befolgung von Anweisungen, Dialoge und Programmierung entwickelt wurde."
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R ist ein skalierbares generatives Modell, das auf RAG und Tool-Nutzung abzielt, um KI in Produktionsgröße für Unternehmen zu ermöglichen."
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+ ist ein hochmodernes, RAG-optimiertes Modell, das für unternehmensgerechte Arbeitslasten konzipiert ist."
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R ist ein LLM, das für Dialoge und Aufgaben mit langen Kontexten optimiert ist und sich besonders gut für dynamische Interaktionen und Wissensmanagement eignet."
259
286
  },
@@ -263,12 +290,6 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct bietet zuverlässige Anweisungsverarbeitungsfähigkeiten und unterstützt Anwendungen in verschiedenen Branchen."
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 ist für Programmieraufgaben konzipiert und konzentriert sich auf effiziente Codegenerierung."
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 hat 6,7 Milliarden Parameter und unterstützt die Verarbeitung von englischen und chinesischen Texten."
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5 vereint die hervorragenden Merkmale früherer Versionen und verbessert die allgemeinen und kodierenden Fähigkeiten."
274
295
  },
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien."
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "Das Llama 3.1 70B Instruct-Modell hat 70B Parameter und bietet herausragende Leistungen bei der Generierung großer Texte und Anweisungsaufgaben."
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral ist für wissenschaftliche Forschung und mathematische Schlussfolgerungen konzipiert und bietet effektive Rechenfähigkeiten und Ergebnisinterpretationen."
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "Ein leistungsstarkes Modell mit 70 Milliarden Parametern, das in den Bereichen Schlussfolgerungen, Programmierung und breiten Sprachanwendungen herausragt."
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "Ein vielseitiges Modell mit 8 Milliarden Parametern, das für Dialog- und Textgenerierungsaufgaben optimiert ist."
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "Die Llama 3.1-Modelle, die auf Anweisungen optimiert sind, sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chat-Modelle in gängigen Branchenbenchmarks."
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "Die Llama 3.1-Modelle, die auf Anweisungen optimiert sind, sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chat-Modelle in gängigen Branchenbenchmarks."
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "Die Llama 3.1-Modelle, die auf Anweisungen optimiert sind, sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chat-Modelle in gängigen Branchenbenchmarks."
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B) bietet hervorragende Sprachverarbeitungsfähigkeiten und ein ausgezeichnetes Interaktionserlebnis."
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B) bietet mehrsprachige Unterstützung und deckt ein breites Spektrum an Fachwissen ab."
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 unterstützt die Generierung großer Textmengen und die Analyse von Anweisungen."
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite ist für Umgebungen geeignet, die hohe Leistung und niedrige Latenz erfordern."
547
582
  },
@@ -620,12 +655,21 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large ist das Flaggschiff-Modell von Mistral, das die Fähigkeiten zur Codegenerierung, Mathematik und Schlussfolgerungen kombiniert und ein Kontextfenster von 128k unterstützt."
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407) ist ein fortschrittliches großes Sprachmodell (LLM) mit modernsten Fähigkeiten in den Bereichen Schlussfolgerungen, Wissen und Programmierung."
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large ist das Flaggschiff-Modell, das sich gut für mehrsprachige Aufgaben, komplexe Schlussfolgerungen und Codegenerierung eignet und die ideale Wahl für hochentwickelte Anwendungen ist."
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo wurde in Zusammenarbeit mit Mistral AI und NVIDIA entwickelt und ist ein leistungsstarkes 12B-Modell."
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small kann für jede sprachbasierte Aufgabe verwendet werden, die hohe Effizienz und geringe Latenz erfordert."
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small ist eine kosteneffiziente, schnelle und zuverlässige Option für Anwendungsfälle wie Übersetzung, Zusammenfassung und Sentimentanalyse."
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct ist bekannt für seine hohe Leistung und eignet sich für eine Vielzahl von Sprachaufgaben."
631
675
  },
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3 ist ein leichtgewichtiges offenes Modell von Microsoft, das für effiziente Integration und großangelegte Wissensschlüsse geeignet ist."
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "Das Pixtral-Modell zeigt starke Fähigkeiten in Aufgaben wie Diagramm- und Bildverständnis, Dokumentenfragen, multimodale Schlussfolgerungen und Befolgung von Anweisungen. Es kann Bilder in natürlicher Auflösung und Seitenverhältnis aufnehmen und in einem langen Kontextfenster von bis zu 128K Tokens beliebig viele Bilder verarbeiten."
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "Das Tongyi Qianwen Code-Modell."
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "Qwen ist ein groß angelegtes Sprachmodell, das lange Textkontexte unterstützt und Dialogfunktionen für verschiedene Szenarien wie lange Dokumente und mehrere Dokumente bietet."
718
768
  },
719
- "qwen-max": {
720
- "description": "Qwen ist ein groß angelegtes Sprachmodell mit Billionen von Parametern, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt. Es ist das API-Modell hinter der aktuellen Version 2.5 von Qwen."
769
+ "qwen-math-plus-latest": {
770
+ "description": "Das Tongyi Qianwen Mathematikmodell ist speziell für die Lösung von mathematischen Problemen konzipiert."
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "Qwen ist ein groß angelegtes Sprachmodell mit Billionen von Parametern, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und das Kontextfenster erweitert hat."
772
+ "qwen-math-turbo-latest": {
773
+ "description": "Das Tongyi Qianwen Mathematikmodell ist speziell für die Lösung von mathematischen Problemen konzipiert."
724
774
  },
725
- "qwen-plus": {
726
- "description": "Qwen ist eine verbesserte Version des groß angelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
775
+ "qwen-max-latest": {
776
+ "description": "Der Tongyi Qianwen ist ein Sprachmodell mit einem Umfang von mehreren Billionen, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und die API-Modelle hinter der aktuellen Version 2.5 von Tongyi Qianwen darstellt."
727
777
  },
728
- "qwen-turbo": {
729
- "description": "Qwen ist ein groß angelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
778
+ "qwen-plus-latest": {
779
+ "description": "Der Tongyi Qianwen ist die erweiterte Version eines groß angelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "Der Tongyi Qianwen ist ein groß angelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt."
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "Qwen VL unterstützt flexible Interaktionsmethoden, einschließlich Mehrbild-, Mehrfachfragen und kreativen Fähigkeiten."
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt."
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "Qwen2 ist ein 57B-Modell mit 14B aktivierten Parametern, das von Qwen2 öffentlich zugänglich gemacht wurde."
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "Das 14B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich."
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "Das 32B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich."
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "Das 72B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich."
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "Das 7B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich."
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "Die Open-Source-Version des Tongyi Qianwen Code-Modells."
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "Die Open-Source-Version des Tongyi Qianwen Code-Modells."
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "Qwen2 ist ein 72B-Modell, das von Qwen2 öffentlich zugänglich gemacht wurde."
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "Qwen2 ist ein 7B-Modell, das von Qwen2 öffentlich zugänglich gemacht wurde."
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Das Qwen2-Math-Modell hat starke Fähigkeiten zur Lösung mathematischer Probleme."
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt."
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI ist die von der 360 Company eingeführte Plattform für KI-Modelle und -Dienste, die eine Vielzahl fortschrittlicher Modelle zur Verarbeitung natürlicher Sprache anbietet, darunter 360GPT2 Pro, 360GPT Pro, 360GPT Turbo und 360GPT Turbo Responsibility 8K. Diese Modelle kombinieren große Parameter mit multimodalen Fähigkeiten und finden breite Anwendung in den Bereichen Textgenerierung, semantisches Verständnis, Dialogsysteme und Codegenerierung. Durch flexible Preisstrategien erfüllt 360 AI die vielfältigen Bedürfnisse der Nutzer, unterstützt Entwickler bei der Integration und fördert die Innovation und Entwicklung intelligenter Anwendungen."
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI ist ein führender Anbieter von fortschrittlichen Sprachmodellen, der sich auf Funktionsaufrufe und multimodale Verarbeitung spezialisiert hat. Ihr neuestes Modell, Firefunction V2, basiert auf Llama-3 und ist für Funktionsaufrufe, Dialoge und Befehlsbefolgung optimiert. Das visuelle Sprachmodell FireLLaVA-13B unterstützt gemischte Eingaben von Bildern und Text. Weitere bemerkenswerte Modelle sind die Llama-Serie und die Mixtral-Serie, die effiziente mehrsprachige Befehlsbefolgung und Generierungsunterstützung bieten."
22
23
  },
24
+ "github": {
25
+ "description": "Mit GitHub-Modellen können Entwickler zu KI-Ingenieuren werden und mit den führenden KI-Modellen der Branche arbeiten."
26
+ },
23
27
  "google": {
24
28
  "description": "Die Gemini-Serie von Google ist ihr fortschrittlichstes, universelles KI-Modell, das von Google DeepMind entwickelt wurde und speziell für multimodale Anwendungen konzipiert ist. Es unterstützt nahtlose Verständnis- und Verarbeitungsprozesse für Text, Code, Bilder, Audio und Video. Es ist für eine Vielzahl von Umgebungen geeignet, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen."
25
29
  },