@lobehub/chat 1.19.13 → 1.19.15
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/locales/ar/models.json +116 -48
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +116 -48
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +116 -48
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +116 -48
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +116 -48
- package/locales/es-ES/providers.json +4 -0
- package/locales/fr-FR/models.json +116 -48
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +0 -60
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +116 -48
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +116 -48
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +0 -60
- package/locales/pl-PL/models.json +0 -60
- package/locales/pt-BR/models.json +116 -48
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +116 -48
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +116 -48
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +0 -60
- package/locales/zh-CN/models.json +122 -54
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +116 -48
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +2 -1
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B, с богатым набором обучающих образцов, демонстрирует превосходные результаты в отраслевых приложениях."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5 — это эволюционная версия серии Yi, обладающая высококачественным предобучением и богатым набором данных для дообучения."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B поддерживает 16K токенов, обеспечивая эффективные и плавные возможности генерации языка."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "Обновление модели Phi-3-mini."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "Модель с 14B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "Та же модель Phi-3-mini, но с большим размером контекста для RAG или нескольких подсказок."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "Самая маленькая модель в семействе Phi-3. Оптимизирована как для качества, так и для низкой задержки."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "Та же модель Phi-3-small, но с большим размером контекста для RAG или нескольких подсказок."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "Модель с 7B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5, обученный на больших наборах данных, хорошо справляется со сложными языковыми задачами."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5 обладает способностями к многопрофильным ответам на вопросы и генерации текстов."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B) обеспечивает быстрые ответы и естественные диалоговые возможности, подходящие для многоязычной среды."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2 — это новая
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2 — это
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5 — это новая серия крупных языковых моделей с более сильными способностями понимания и генерации."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2 — это новая серия крупных языковых
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder сосредоточен на написании кода."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "Многоязычная модель с 398B параметрами (94B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "Модель LLM на основе Mamba, предназначенная для достижения наилучших показателей производительности, качества и экономической эффективности."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "Command R — это масштабируемая генеративная модель, нацеленная на RAG и использование инструментов для обеспечения AI на уровне производства для предприятий."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct предлагает высокую надежность в обработке команд, поддерживая приложения в различных отраслях."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2 разработан для задач программирования, сосредоточен на эффективной генерации кода."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2 обладает 6.7 миллиарда параметров и поддерживает обработку текстов на английском и китайском языках."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "Универсальная модель с 8 миллиардами параметров, оптимизированная для диалоговых и текстовых задач."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "Модели Llama 3.1, настроенные на инструкции, оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные модели открытого и закрытого чата по общим отраслевым стандартам."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3 поддерживает генерацию больших объемов текста и интерпретацию инструкций."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407) — это продвинутая модель языка (LLM) с современными способностями рассуждения, знаний и кодирования."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "Mistral Small может использоваться для любых языковых задач, требующих высокой эффективности и низкой задержки."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "Модель кода Tongyi Qwen."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "Математическая модель Tongyi Qwen, специально разработанная для решения математических задач."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "Модель языка Tongyi Qwen с уровнем масштабирования в триллионы, поддерживающая ввод на различных языках, включая китайский и английский, является API моделью, лежащей в основе продукта Tongyi Qwen 2.5."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "Улучшенная версия модели языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "Модель языка Tongyi Qwen, поддерживающая ввод на различных языках, включая китайский и английский."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 14B."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 32B."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 72B."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "Открытая версия модели кода Tongyi Qwen."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "Открытая версия модели кода Tongyi Qwen."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "Модель
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "С помощью моделей GitHub разработчики могут стать инженерами ИИ и создавать с использованием ведущих моделей ИИ в отрасли."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "Серия Gemini от Google является самой передовой и универсальной AI-моделью, разработанной Google DeepMind, специально созданной для мультимодальной обработки, поддерживающей бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходит для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность AI-моделей."
|
25
29
|
},
|
@@ -2,9 +2,6 @@
|
|
2
2
|
"01-ai/Yi-1.5-34B-Chat-16K": {
|
3
3
|
"description": "Yi-1.5 34B, zengin eğitim örnekleri ile endüstri uygulamalarında üstün performans sunar."
|
4
4
|
},
|
5
|
-
"01-ai/Yi-1.5-6B-Chat": {
|
6
|
-
"description": "Yi-1.5, Yi serisinin evrimsel versiyonudur, yüksek kaliteli ön eğitim ve zengin ince ayar verilerine sahiptir."
|
7
|
-
},
|
8
5
|
"01-ai/Yi-1.5-9B-Chat-16K": {
|
9
6
|
"description": "Yi-1.5 9B, 16K Token desteği sunar, etkili ve akıcı dil oluşturma yeteneği sağlar."
|
10
7
|
},
|
@@ -47,41 +44,56 @@
|
|
47
44
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
48
45
|
"description": "Nous Hermes-2 Yi (34B), optimize edilmiş dil çıktısı ve çeşitli uygulama olasılıkları sunar."
|
49
46
|
},
|
47
|
+
"Phi-3-5-mini-instruct": {
|
48
|
+
"description": "Phi-3-mini modelinin yenilenmiş versiyonu."
|
49
|
+
},
|
50
|
+
"Phi-3-medium-128k-instruct": {
|
51
|
+
"description": "Aynı Phi-3-medium modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
52
|
+
},
|
53
|
+
"Phi-3-medium-4k-instruct": {
|
54
|
+
"description": "14B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
|
55
|
+
},
|
56
|
+
"Phi-3-mini-128k-instruct": {
|
57
|
+
"description": "Aynı Phi-3-mini modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
58
|
+
},
|
59
|
+
"Phi-3-mini-4k-instruct": {
|
60
|
+
"description": "Phi-3 ailesinin en küçük üyesi. Hem kalite hem de düşük gecikme için optimize edilmiştir."
|
61
|
+
},
|
62
|
+
"Phi-3-small-128k-instruct": {
|
63
|
+
"description": "Aynı Phi-3-small modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
64
|
+
},
|
65
|
+
"Phi-3-small-8k-instruct": {
|
66
|
+
"description": "7B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
|
67
|
+
},
|
50
68
|
"Pro-128k": {
|
51
69
|
"description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar."
|
52
70
|
},
|
53
71
|
"Qwen/Qwen1.5-110B-Chat": {
|
54
72
|
"description": "Qwen2'nin test sürümü olan Qwen1.5, büyük ölçekli verilerle daha hassas diyalog yetenekleri sunar."
|
55
73
|
},
|
56
|
-
"Qwen/Qwen1.5-14B-Chat": {
|
57
|
-
"description": "Qwen1.5, büyük ölçekli veri setleri ile eğitilmiş olup, karmaşık dil görevlerinde uzmandır."
|
58
|
-
},
|
59
|
-
"Qwen/Qwen1.5-32B-Chat": {
|
60
|
-
"description": "Qwen1.5, çok alanlı bilgi sorgulama ve metin oluşturma yeteneğine sahiptir."
|
61
|
-
},
|
62
74
|
"Qwen/Qwen1.5-72B-Chat": {
|
63
75
|
"description": "Qwen 1.5 Chat (72B), hızlı yanıt ve doğal diyalog yetenekleri sunar, çok dilli ortamlara uygundur."
|
64
76
|
},
|
65
|
-
"Qwen/
|
66
|
-
"description": "
|
77
|
+
"Qwen/Qwen2-72B-Instruct": {
|
78
|
+
"description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
|
67
79
|
},
|
68
|
-
"Qwen/Qwen2
|
69
|
-
"description": "Qwen2, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
80
|
+
"Qwen/Qwen2.5-14B-Instruct": {
|
81
|
+
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
70
82
|
},
|
71
|
-
"Qwen/Qwen2-
|
72
|
-
"description": "Qwen2, talimat
|
83
|
+
"Qwen/Qwen2.5-32B-Instruct": {
|
84
|
+
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
73
85
|
},
|
74
|
-
"Qwen/Qwen2-72B-Instruct": {
|
75
|
-
"description": "Qwen2,
|
86
|
+
"Qwen/Qwen2.5-72B-Instruct": {
|
87
|
+
"description": "Qwen2.5, daha güçlü anlama ve üretim yeteneklerine sahip yeni bir büyük dil modeli serisidir."
|
76
88
|
},
|
77
|
-
"Qwen/Qwen2-7B-Instruct": {
|
78
|
-
"description": "Qwen2,
|
89
|
+
"Qwen/Qwen2.5-7B-Instruct": {
|
90
|
+
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
79
91
|
},
|
80
|
-
"Qwen/Qwen2-
|
81
|
-
"description": "Qwen2-
|
92
|
+
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
93
|
+
"description": "Qwen2.5-Coder, kod yazmaya odaklanır."
|
82
94
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
95
|
+
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
96
|
+
"description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar."
|
85
97
|
},
|
86
98
|
"THUDM/glm-4-9b-chat": {
|
87
99
|
"description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
|
@@ -158,6 +170,15 @@
|
|
158
170
|
"accounts/yi-01-ai/models/yi-large": {
|
159
171
|
"description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur."
|
160
172
|
},
|
173
|
+
"ai21-jamba-1.5-large": {
|
174
|
+
"description": "398B parametreli (94B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
|
175
|
+
},
|
176
|
+
"ai21-jamba-1.5-mini": {
|
177
|
+
"description": "52B parametreli (12B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
|
178
|
+
},
|
179
|
+
"ai21-jamba-instruct": {
|
180
|
+
"description": "En iyi performans, kalite ve maliyet verimliliği sağlamak için üretim sınıfı Mamba tabanlı LLM modelidir."
|
181
|
+
},
|
161
182
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
162
183
|
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
|
163
184
|
},
|
@@ -254,6 +275,12 @@
|
|
254
275
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
255
276
|
"description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir."
|
256
277
|
},
|
278
|
+
"cohere-command-r": {
|
279
|
+
"description": "Command R, üretim ölçeğinde AI sağlamak için RAG ve Araç Kullanımına yönelik ölçeklenebilir bir üretken modeldir."
|
280
|
+
},
|
281
|
+
"cohere-command-r-plus": {
|
282
|
+
"description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
|
283
|
+
},
|
257
284
|
"command-r": {
|
258
285
|
"description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
|
259
286
|
},
|
@@ -263,12 +290,6 @@
|
|
263
290
|
"databricks/dbrx-instruct": {
|
264
291
|
"description": "DBRX Instruct, yüksek güvenilirlikte talimat işleme yetenekleri sunar ve çok çeşitli endüstri uygulamalarını destekler."
|
265
292
|
},
|
266
|
-
"deepseek-ai/DeepSeek-Coder-V2-Instruct": {
|
267
|
-
"description": "DeepSeek Coder V2, kod görevleri için tasarlanmış olup, etkili kod oluşturma üzerine odaklanmaktadır."
|
268
|
-
},
|
269
|
-
"deepseek-ai/DeepSeek-V2-Chat": {
|
270
|
-
"description": "DeepSeek V2, 6.7 milyar parametreye sahiptir ve İngilizce ve Çince metin işleme desteği sunar."
|
271
|
-
},
|
272
293
|
"deepseek-ai/DeepSeek-V2.5": {
|
273
294
|
"description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır."
|
274
295
|
},
|
@@ -467,6 +488,8 @@
|
|
467
488
|
"internlm/internlm2_5-7b-chat": {
|
468
489
|
"description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
|
469
490
|
},
|
491
|
+
"jamba-1.5-large": {},
|
492
|
+
"jamba-1.5-mini": {},
|
470
493
|
"llama-3.1-70b-instruct": {
|
471
494
|
"description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
|
472
495
|
},
|
@@ -530,6 +553,21 @@
|
|
530
553
|
"mathstral": {
|
531
554
|
"description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar."
|
532
555
|
},
|
556
|
+
"meta-llama-3-70b-instruct": {
|
557
|
+
"description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
|
558
|
+
},
|
559
|
+
"meta-llama-3-8b-instruct": {
|
560
|
+
"description": "Diyalog ve metin üretim görevleri için optimize edilmiş çok yönlü bir 8 milyar parametreli model."
|
561
|
+
},
|
562
|
+
"meta-llama-3.1-405b-instruct": {
|
563
|
+
"description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
|
564
|
+
},
|
565
|
+
"meta-llama-3.1-70b-instruct": {
|
566
|
+
"description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
|
567
|
+
},
|
568
|
+
"meta-llama-3.1-8b-instruct": {
|
569
|
+
"description": "Llama 3.1 talimat ayarlı yalnızca metin modelleri, çok dilli diyalog kullanım durumları için optimize edilmiştir ve mevcut açık kaynak ve kapalı sohbet modellerinin çoğunu yaygın endüstri standartlarında geride bırakmaktadır."
|
570
|
+
},
|
533
571
|
"meta-llama/Llama-2-13b-chat-hf": {
|
534
572
|
"description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar."
|
535
573
|
},
|
@@ -539,9 +577,6 @@
|
|
539
577
|
"meta-llama/Llama-3-8b-chat-hf": {
|
540
578
|
"description": "LLaMA-3 Chat (8B), çok dilli desteği ile zengin alan bilgilerini kapsar."
|
541
579
|
},
|
542
|
-
"meta-llama/Meta-Llama-3-70B-Instruct": {
|
543
|
-
"description": "LLaMA 3, büyük hacimli metin oluşturma ve talimat çözümleme desteği sunar."
|
544
|
-
},
|
545
580
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
546
581
|
"description": "Llama 3 70B Instruct Lite, yüksek performans ve düşük gecikme gerektiren ortamlara uygundur."
|
547
582
|
},
|
@@ -620,12 +655,21 @@
|
|
620
655
|
"mistral-large": {
|
621
656
|
"description": "Mixtral Large, Mistral'ın amiral gemisi modelidir, kod üretimi, matematik ve akıl yürütme yeteneklerini birleştirir, 128k bağlam penceresini destekler."
|
622
657
|
},
|
658
|
+
"mistral-large-2407": {
|
659
|
+
"description": "Mistral Large (2407), en son akıl yürütme, bilgi ve kodlama yetenekleri ile gelişmiş bir Büyük Dil Modelidir (LLM)."
|
660
|
+
},
|
623
661
|
"mistral-large-latest": {
|
624
662
|
"description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır."
|
625
663
|
},
|
626
664
|
"mistral-nemo": {
|
627
665
|
"description": "Mistral Nemo, Mistral AI ve NVIDIA işbirliği ile sunulan, yüksek verimli 12B modelidir."
|
628
666
|
},
|
667
|
+
"mistral-small": {
|
668
|
+
"description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her dil tabanlı görevde kullanılabilir."
|
669
|
+
},
|
670
|
+
"mistral-small-latest": {
|
671
|
+
"description": "Mistral Small, çeviri, özetleme ve duygu analizi gibi kullanım durumları için maliyet etkin, hızlı ve güvenilir bir seçenektir."
|
672
|
+
},
|
629
673
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
630
674
|
"description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur."
|
631
675
|
},
|
@@ -713,20 +757,29 @@
|
|
713
757
|
"phi3:14b": {
|
714
758
|
"description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur."
|
715
759
|
},
|
760
|
+
"pixtral-12b-2409": {
|
761
|
+
"description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir."
|
762
|
+
},
|
763
|
+
"qwen-coder-turbo-latest": {
|
764
|
+
"description": "Tongyi Qianwen kodlama modeli."
|
765
|
+
},
|
716
766
|
"qwen-long": {
|
717
767
|
"description": "Tongyi Qianwen, uzun metin bağlamını destekleyen ve uzun belgeler, çoklu belgeler gibi çeşitli senaryolar için diyalog işlevselliği sunan büyük ölçekli bir dil modelidir."
|
718
768
|
},
|
719
|
-
"qwen-
|
720
|
-
"description": "Tongyi Qianwen
|
769
|
+
"qwen-math-plus-latest": {
|
770
|
+
"description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
|
721
771
|
},
|
722
|
-
"qwen-
|
723
|
-
"description": "Tongyi Qianwen
|
772
|
+
"qwen-math-turbo-latest": {
|
773
|
+
"description": "Tongyi Qianwen matematik modeli, matematik problemlerini çözmek için özel olarak tasarlanmış bir dil modelidir."
|
724
774
|
},
|
725
|
-
"qwen-
|
726
|
-
"description": "Tongyi Qianwen, Çince, İngilizce
|
775
|
+
"qwen-max-latest": {
|
776
|
+
"description": "Tongyi Qianwen, 100 milyar seviyesinde büyük bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler, şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir."
|
727
777
|
},
|
728
|
-
"qwen-
|
729
|
-
"description": "Tongyi Qianwen
|
778
|
+
"qwen-plus-latest": {
|
779
|
+
"description": "Tongyi Qianwen'in geliştirilmiş versiyonu, çok dilli girişleri destekler."
|
780
|
+
},
|
781
|
+
"qwen-turbo-latest": {
|
782
|
+
"description": "Tongyi Qianwen, çok dilli bir dil modeli, Çince, İngilizce ve diğer dillerde girişleri destekler."
|
730
783
|
},
|
731
784
|
"qwen-vl-chat-v1": {
|
732
785
|
"description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir."
|
@@ -746,17 +799,32 @@
|
|
746
799
|
"qwen2": {
|
747
800
|
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
748
801
|
},
|
749
|
-
"qwen2-
|
750
|
-
"description": "Tongyi Qianwen 2, halka açık
|
802
|
+
"qwen2.5-14b-instruct": {
|
803
|
+
"description": "Tongyi Qianwen 2.5, halka açık 14B ölçeğinde bir modeldir."
|
804
|
+
},
|
805
|
+
"qwen2.5-32b-instruct": {
|
806
|
+
"description": "Tongyi Qianwen 2.5, halka açık 32B ölçeğinde bir modeldir."
|
807
|
+
},
|
808
|
+
"qwen2.5-72b-instruct": {
|
809
|
+
"description": "Tongyi Qianwen 2.5, halka açık 72B ölçeğinde bir modeldir."
|
810
|
+
},
|
811
|
+
"qwen2.5-7b-instruct": {
|
812
|
+
"description": "Tongyi Qianwen 2.5, halka açık 7B ölçeğinde bir modeldir."
|
813
|
+
},
|
814
|
+
"qwen2.5-coder-1.5b-instruct": {
|
815
|
+
"description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
|
816
|
+
},
|
817
|
+
"qwen2.5-coder-7b-instruct": {
|
818
|
+
"description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
|
751
819
|
},
|
752
|
-
"qwen2-
|
753
|
-
"description": "
|
820
|
+
"qwen2.5-math-1.5b-instruct": {
|
821
|
+
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
754
822
|
},
|
755
|
-
"qwen2-
|
756
|
-
"description": "
|
823
|
+
"qwen2.5-math-72b-instruct": {
|
824
|
+
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
757
825
|
},
|
758
|
-
"qwen2-math-
|
759
|
-
"description": "
|
826
|
+
"qwen2.5-math-7b-instruct": {
|
827
|
+
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
760
828
|
},
|
761
829
|
"qwen2:0.5b": {
|
762
830
|
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
@@ -1,4 +1,5 @@
|
|
1
1
|
{
|
2
|
+
"ai21": {},
|
2
3
|
"ai360": {
|
3
4
|
"description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir."
|
4
5
|
},
|
@@ -20,6 +21,9 @@
|
|
20
21
|
"fireworksai": {
|
21
22
|
"description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır."
|
22
23
|
},
|
24
|
+
"github": {
|
25
|
+
"description": "GitHub Modelleri ile geliştiriciler, AI mühendisleri olabilir ve sektörün önde gelen AI modelleri ile inşa edebilirler."
|
26
|
+
},
|
23
27
|
"google": {
|
24
28
|
"description": "Google'ın Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel yapay zeka modelleridir. Çok modlu tasarımı sayesinde metin, kod, görüntü, ses ve video gibi çeşitli veri türlerini sorunsuz bir şekilde anlama ve işleme yeteneğine sahiptir. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, yapay zeka modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırmaktadır."
|
25
29
|
},
|