@lobehub/chat 1.22.15 → 1.22.16
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/locales/ar/models.json +86 -17
- package/locales/bg-BG/models.json +85 -16
- package/locales/de-DE/models.json +86 -17
- package/locales/en-US/models.json +86 -17
- package/locales/es-ES/models.json +86 -17
- package/locales/fr-FR/models.json +86 -17
- package/locales/it-IT/models.json +86 -17
- package/locales/ja-JP/models.json +86 -17
- package/locales/ko-KR/models.json +86 -17
- package/locales/nl-NL/models.json +86 -17
- package/locales/pl-PL/models.json +86 -17
- package/locales/pt-BR/models.json +86 -17
- package/locales/ru-RU/models.json +86 -17
- package/locales/tr-TR/models.json +86 -17
- package/locales/vi-VN/models.json +86 -17
- package/locales/zh-CN/models.json +108 -39
- package/locales/zh-CN/providers.json +2 -2
- package/locales/zh-TW/models.json +86 -17
- package/package.json +1 -1
- package/src/libs/next-auth/sso-providers/azure-ad.ts +2 -1
@@ -47,8 +47,8 @@
|
|
47
47
|
"ERNIE-4.0-8K-Preview": {
|
48
48
|
"description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
|
49
49
|
},
|
50
|
-
"ERNIE-4.0-Turbo-8K": {
|
51
|
-
"description": "Флагманская
|
50
|
+
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
|
+
"description": "Флагманская 超大型 языковая модель, разработанная Baidu, демонстрирует отличные результаты и хорошо подходит для сложных задач в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая своевременность ответов. По сравнению с ERNIE 4.0 имеет лучшие показатели производительности."
|
52
52
|
},
|
53
53
|
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
54
|
"description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, демонстрирующая отличные результаты в комплексной эффективности, широко применяемая в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, она демонстрирует лучшие показатели производительности."
|
@@ -80,8 +80,11 @@
|
|
80
80
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
81
81
|
"description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения."
|
82
82
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
83
|
+
"OpenGVLab/InternVL2-26B": {
|
84
|
+
"description": "InternVL2 демонстрирует превосходные результаты в различных визуально-языковых задачах, включая понимание документов и графиков, понимание текстов сцены, OCR, решение научных и математических задач."
|
85
|
+
},
|
86
|
+
"OpenGVLab/InternVL2-Llama3-76B": {
|
87
|
+
"description": "InternVL2 демонстрирует превосходные результаты в различных визуально-языковых задачах, включая понимание документов и графиков, понимание текстов сцены, OCR, решение научных и математических задач."
|
85
88
|
},
|
86
89
|
"Phi-3-medium-128k-instruct": {
|
87
90
|
"description": "Та же модель Phi-3-medium, но с большим размером контекста для RAG или нескольких подсказок."
|
@@ -101,9 +104,21 @@
|
|
101
104
|
"Phi-3-small-8k-instruct": {
|
102
105
|
"description": "Модель с 7B параметрами, демонстрирующая лучшее качество, чем Phi-3-mini, с акцентом на высококачественные, насыщенные рассуждениями данные."
|
103
106
|
},
|
107
|
+
"Phi-3.5-mini-instruct": {
|
108
|
+
"description": "Обновленная версия модели Phi-3-mini."
|
109
|
+
},
|
110
|
+
"Phi-3.5-vision-instrust": {
|
111
|
+
"description": "Обновленная версия модели Phi-3-vision."
|
112
|
+
},
|
104
113
|
"Pro-128k": {
|
105
114
|
"description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
106
115
|
},
|
116
|
+
"Pro/OpenGVLab/InternVL2-8B": {
|
117
|
+
"description": "InternVL2 демонстрирует превосходные результаты в различных визуально-языковых задачах, включая понимание документов и графиков, понимание текстов сцены, OCR, решение научных и математических задач."
|
118
|
+
},
|
119
|
+
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
120
|
+
"description": "Qwen2-VL - это последняя версия модели Qwen-VL, которая достигла передовых результатов в тестировании визуального понимания."
|
121
|
+
},
|
107
122
|
"Qwen/Qwen1.5-110B-Chat": {
|
108
123
|
"description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций."
|
109
124
|
},
|
@@ -113,18 +128,27 @@
|
|
113
128
|
"Qwen/Qwen2-72B-Instruct": {
|
114
129
|
"description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд."
|
115
130
|
},
|
131
|
+
"Qwen/Qwen2-VL-72B-Instruct": {
|
132
|
+
"description": "Qwen2-VL - это последняя версия модели Qwen-VL, которая достигла передовых результатов в тестировании визуального понимания."
|
133
|
+
},
|
116
134
|
"Qwen/Qwen2.5-14B-Instruct": {
|
117
135
|
"description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
118
136
|
},
|
119
137
|
"Qwen/Qwen2.5-32B-Instruct": {
|
120
138
|
"description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
121
139
|
},
|
122
|
-
"Qwen/Qwen2.5-72B-Instruct": {
|
123
|
-
"description": "Qwen2.5
|
140
|
+
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
141
|
+
"description": "Qwen2.5 - это новая серия крупных языковых моделей с улучшенными способностями понимания и генерации."
|
142
|
+
},
|
143
|
+
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
144
|
+
"description": "Qwen2.5 - это новая серия крупных языковых моделей, нацеленная на оптимизацию обработки задач с инструкциями."
|
124
145
|
},
|
125
146
|
"Qwen/Qwen2.5-7B-Instruct": {
|
126
147
|
"description": "Qwen2.5 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач."
|
127
148
|
},
|
149
|
+
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
150
|
+
"description": "Qwen2.5 - это новая серия крупных языковых моделей, нацеленная на оптимизацию обработки задач с инструкциями."
|
151
|
+
},
|
128
152
|
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
129
153
|
"description": "Qwen2.5-Coder сосредоточен на написании кода."
|
130
154
|
},
|
@@ -158,9 +182,6 @@
|
|
158
182
|
"accounts/fireworks/models/firellava-13b": {
|
159
183
|
"description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач."
|
160
184
|
},
|
161
|
-
"accounts/fireworks/models/gemma2-9b-it": {
|
162
|
-
"description": "Gemma 2 9B для команд, основанная на предыдущих технологиях Google, подходит для ответов на вопросы, резюмирования и вывода текста."
|
163
|
-
},
|
164
185
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
165
186
|
"description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей."
|
166
187
|
},
|
@@ -182,6 +203,18 @@
|
|
182
203
|
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
183
204
|
"description": "Модель Llama 3.1 8B для команд, оптимизированная для многоязычных диалогов, способная превосходить большинство открытых и закрытых моделей по общим отраслевым стандартам."
|
184
205
|
},
|
206
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
207
|
+
"description": "Модель Meta с 11B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
|
208
|
+
},
|
209
|
+
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
210
|
+
"description": "Модель Llama 3.2 1B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают извлечение информации и резюме."
|
211
|
+
},
|
212
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
213
|
+
"description": "Модель Llama 3.2 3B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают запросы, переоформление подсказок и помощь в написании."
|
214
|
+
},
|
215
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
216
|
+
"description": "Модель Meta с 90B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
|
217
|
+
},
|
185
218
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
186
219
|
"description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач."
|
187
220
|
},
|
@@ -197,6 +230,9 @@
|
|
197
230
|
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
198
231
|
"description": "Phi 3 Vision для команд, легковесная мультимодальная модель, способная обрабатывать сложную визуальную и текстовую информацию, обладая высокой способностью к выводу."
|
199
232
|
},
|
233
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
234
|
+
"description": "Qwen2.5 - это серия языковых моделей, содержащая только декодеры, разработанная командой Qwen от Alibaba Cloud. Эти модели предлагаются в различных размерах: 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, с вариантами базовой и инструкционной версии."
|
235
|
+
},
|
200
236
|
"accounts/fireworks/models/starcoder-16b": {
|
201
237
|
"description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода."
|
202
238
|
},
|
@@ -212,9 +248,6 @@
|
|
212
248
|
"ai21-jamba-1.5-mini": {
|
213
249
|
"description": "Многоязычная модель с 52B параметрами (12B активных), предлагающая контекстное окно длиной 256K, вызовы функций, структурированный вывод и основанное на фактах генерирование."
|
214
250
|
},
|
215
|
-
"ai21-jamba-instruct": {
|
216
|
-
"description": "Модель LLM на основе Mamba, предназначенная для достижения наилучших показателей производительности, качества и экономической эффективности."
|
217
|
-
},
|
218
251
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
219
252
|
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
220
253
|
},
|
@@ -592,9 +625,15 @@
|
|
592
625
|
"llama-3.1-sonar-small-128k-online": {
|
593
626
|
"description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
|
594
627
|
},
|
628
|
+
"llama-3.2-11b-vision-instruct": {
|
629
|
+
"description": "Отличные способности к визуальному пониманию изображений на высоком разрешении, предназначенные для приложений визуального понимания."
|
630
|
+
},
|
595
631
|
"llama-3.2-11b-vision-preview": {
|
596
632
|
"description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
|
597
633
|
},
|
634
|
+
"llama-3.2-90b-vision-instruct": {
|
635
|
+
"description": "Совершенные возможности визуального понимания для приложения-агента."
|
636
|
+
},
|
598
637
|
"llama-3.2-90b-vision-preview": {
|
599
638
|
"description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
|
600
639
|
},
|
@@ -652,8 +691,8 @@
|
|
652
691
|
"meta-llama/Llama-2-13b-chat-hf": {
|
653
692
|
"description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия."
|
654
693
|
},
|
655
|
-
"meta-llama/Llama-2-
|
656
|
-
"description": "
|
694
|
+
"meta-llama/Llama-2-70b-hf": {
|
695
|
+
"description": "LLaMA-2 предлагает превосходные способности обработки языка и выдающийся пользовательский опыт."
|
657
696
|
},
|
658
697
|
"meta-llama/Llama-3-70b-chat-hf": {
|
659
698
|
"description": "LLaMA-3 Chat (70B) — мощная модель для чата, поддерживающая сложные диалоговые запросы."
|
@@ -661,6 +700,18 @@
|
|
661
700
|
"meta-llama/Llama-3-8b-chat-hf": {
|
662
701
|
"description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний."
|
663
702
|
},
|
703
|
+
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
704
|
+
"description": "LLaMA 3.2 предназначена для выполнения задач, объединяющих визуальные и текстовые данные. Она отлично справляется с задачами по описанию изображений и визуальному вопросу-ответу, преодолевая разрыв между генерацией языка и визуальным пониманием."
|
705
|
+
},
|
706
|
+
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
707
|
+
"description": "LLaMA 3.2 предназначена для выполнения задач, объединяющих визуальные и текстовые данные. Она отлично справляется с задачами по описанию изображений и визуальному вопросу-ответу, преодолевая разрыв между генерацией языка и визуальным пониманием."
|
708
|
+
},
|
709
|
+
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
710
|
+
"description": "LLaMA 3.2 предназначена для выполнения задач, объединяющих визуальные и текстовые данные. Она отлично справляется с задачами по описанию изображений и визуальному вопросу-ответу, преодолевая разрыв между генерацией языка и визуальным пониманием."
|
711
|
+
},
|
712
|
+
"meta-llama/Llama-Vision-Free": {
|
713
|
+
"description": "LLaMA 3.2 предназначена для выполнения задач, объединяющих визуальные и текстовые данные. Она отлично справляется с задачами по описанию изображений и визуальному вопросу-ответу, преодолевая разрыв между генерацией языка и визуальным пониманием."
|
714
|
+
},
|
664
715
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
665
716
|
"description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки."
|
666
717
|
},
|
@@ -739,15 +790,18 @@
|
|
739
790
|
"minicpm-v": {
|
740
791
|
"description": "MiniCPM-V — это новое поколение мультимодальной большой модели от OpenBMB, обладающее выдающимися возможностями OCR и мультимодального понимания, поддерживающее широкий спектр приложений."
|
741
792
|
},
|
793
|
+
"ministral-3b-latest": {
|
794
|
+
"description": "Ministral 3B - это выдающаяся модель от Mistral."
|
795
|
+
},
|
796
|
+
"ministral-8b-latest": {
|
797
|
+
"description": "Ministral 8B - это экономически эффективная модель от Mistral."
|
798
|
+
},
|
742
799
|
"mistral": {
|
743
800
|
"description": "Mistral — это 7B модель, выпущенная Mistral AI, подходящая для разнообразных языковых задач."
|
744
801
|
},
|
745
802
|
"mistral-large": {
|
746
803
|
"description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k."
|
747
804
|
},
|
748
|
-
"mistral-large-2407": {
|
749
|
-
"description": "Mistral Large (2407) — это продвинутая модель языка (LLM) с современными способностями рассуждения, знаний и кодирования."
|
750
|
-
},
|
751
805
|
"mistral-large-latest": {
|
752
806
|
"description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений."
|
753
807
|
},
|
@@ -769,12 +823,18 @@
|
|
769
823
|
"mistralai/Mistral-7B-Instruct-v0.3": {
|
770
824
|
"description": "Mistral (7B) Instruct v0.3 обеспечивает эффективные вычислительные возможности и понимание естественного языка, подходящие для широкого спектра приложений."
|
771
825
|
},
|
826
|
+
"mistralai/Mistral-7B-v0.1": {
|
827
|
+
"description": "Mistral 7B - это компактная, но высокопроизводительная модель, хорошо подходящая для пакетной обработки и простых задач, таких как классификация и генерация текста, с хорошими способностями к рассуждению."
|
828
|
+
},
|
772
829
|
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
773
830
|
"description": "Mixtral-8x22B Instruct (141B) — это супер большая языковая модель, поддерживающая крайне высокие требования к обработке."
|
774
831
|
},
|
775
832
|
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
776
833
|
"description": "Mixtral 8x7B — это предобученная модель разреженных смешанных экспертов, предназначенная для универсальных текстовых задач."
|
777
834
|
},
|
835
|
+
"mistralai/Mixtral-8x7B-v0.1": {
|
836
|
+
"description": "Mixtral 8x7B - это разреженная модель эксперта, использующая множество параметров для повышения скорости вывода, подходит для обработки многоязычных и генеративных задач."
|
837
|
+
},
|
778
838
|
"mistralai/mistral-7b-instruct": {
|
779
839
|
"description": "Mistral 7B Instruct — это высокопроизводительная модель стандартов отрасли, оптимизированная для скорости и поддержки длинного контекста."
|
780
840
|
},
|
@@ -802,6 +862,9 @@
|
|
802
862
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
803
863
|
"description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
|
804
864
|
},
|
865
|
+
"nvidia/Llama-3.1-Nemotron-70B-Instruct": {
|
866
|
+
"description": "Llama 3.1 Nemotron 70B - это специализированная языковая модель от NVIDIA, предназначенная для повышения степени полезности ответов, генерируемых LLM, к пользовательским запросам."
|
867
|
+
},
|
805
868
|
"o1-mini": {
|
806
869
|
"description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
807
870
|
},
|
@@ -988,6 +1051,12 @@
|
|
988
1051
|
"yi-large-turbo": {
|
989
1052
|
"description": "Высокая стоимость и выдающаяся производительность. Балансировка высокой точности на основе производительности, скорости вывода и затрат."
|
990
1053
|
},
|
1054
|
+
"yi-lightning": {
|
1055
|
+
"description": "Новая высокопроизводительная модель, обеспечивающая высокое качество вывода при значительно повышенной скорости вывода."
|
1056
|
+
},
|
1057
|
+
"yi-lightning-lite": {
|
1058
|
+
"description": "Упрощенная версия, рекомендуется использовать yi-lightning."
|
1059
|
+
},
|
991
1060
|
"yi-medium": {
|
992
1061
|
"description": "Модель среднего размера с улучшенной настройкой, сбалансированная по возможностям и стоимости. Глубокая оптимизация способности следовать указаниям."
|
993
1062
|
},
|
@@ -47,8 +47,8 @@
|
|
47
47
|
"ERNIE-4.0-8K-Preview": {
|
48
48
|
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
|
49
49
|
},
|
50
|
-
"ERNIE-4.0-Turbo-8K": {
|
51
|
-
"description": "Baidu
|
50
|
+
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
|
+
"description": "Baidu tarafından geliştirilen, geniş ölçekli büyük dil modeli, genel performansı mükemmeldir ve her alanda karmaşık görev sahneleri için geniş bir şekilde kullanılabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgi güncellemelerinin zamanlamasını güvence altına alır. ERNIE 4.0'a kıyasla, performans olarak daha üstündür."
|
52
52
|
},
|
53
53
|
"ERNIE-4.0-Turbo-8K-Preview": {
|
54
54
|
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür."
|
@@ -80,8 +80,11 @@
|
|
80
80
|
"NousResearch/Nous-Hermes-2-Yi-34B": {
|
81
81
|
"description": "Nous Hermes-2 Yi (34B), optimize edilmiş dil çıktısı ve çeşitli uygulama olasılıkları sunar."
|
82
82
|
},
|
83
|
-
"
|
84
|
-
"description": "
|
83
|
+
"OpenGVLab/InternVL2-26B": {
|
84
|
+
"description": "InternVL2, belgelere ve grafiklere anlama, sahne metni anlama, OCR, bilimsel ve matematik soruları çözme gibi çeşitli görsel dil görevlerinde mükemmel performans sergilemiştir."
|
85
|
+
},
|
86
|
+
"OpenGVLab/InternVL2-Llama3-76B": {
|
87
|
+
"description": "InternVL2, belgelere ve grafiklere anlama, sahne metni anlama, OCR, bilimsel ve matematik soruları çözme gibi çeşitli görsel dil görevlerinde mükemmel performans sergilemiştir."
|
85
88
|
},
|
86
89
|
"Phi-3-medium-128k-instruct": {
|
87
90
|
"description": "Aynı Phi-3-medium modeli, ancak RAG veya az sayıda örnek isteme için daha büyük bir bağlam boyutuna sahiptir."
|
@@ -101,9 +104,21 @@
|
|
101
104
|
"Phi-3-small-8k-instruct": {
|
102
105
|
"description": "7B parametreli bir model, Phi-3-mini'den daha iyi kalite sunar, yüksek kaliteli, akıl yürütme yoğun veriye odaklanır."
|
103
106
|
},
|
107
|
+
"Phi-3.5-mini-instruct": {
|
108
|
+
"description": "Phi-3-mini modelinin güncellenmiş versiyonu."
|
109
|
+
},
|
110
|
+
"Phi-3.5-vision-instrust": {
|
111
|
+
"description": "Phi-3-görsel modelinin güncellenmiş versiyonu."
|
112
|
+
},
|
104
113
|
"Pro-128k": {
|
105
114
|
"description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar."
|
106
115
|
},
|
116
|
+
"Pro/OpenGVLab/InternVL2-8B": {
|
117
|
+
"description": "InternVL2, belgelere ve grafiklere anlama, sahne metni anlama, OCR, bilimsel ve matematik soruları çözme gibi çeşitli görsel dil görevlerinde mükemmel performans sergilemiştir."
|
118
|
+
},
|
119
|
+
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
120
|
+
"description": "Qwen2-VL, Qwen-VL modelinin en son yineleme versiyonudur ve görsel anlama kıyaslama testlerinde en gelişmiş performansı sergilemiştir."
|
121
|
+
},
|
107
122
|
"Qwen/Qwen1.5-110B-Chat": {
|
108
123
|
"description": "Qwen2'nin test sürümü olan Qwen1.5, büyük ölçekli verilerle daha hassas diyalog yetenekleri sunar."
|
109
124
|
},
|
@@ -113,18 +128,27 @@
|
|
113
128
|
"Qwen/Qwen2-72B-Instruct": {
|
114
129
|
"description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
|
115
130
|
},
|
131
|
+
"Qwen/Qwen2-VL-72B-Instruct": {
|
132
|
+
"description": "Qwen2-VL, Qwen-VL modelinin en son yineleme versiyonudur ve görsel anlama kıyaslama testlerinde en gelişmiş performansı sergilemiştir."
|
133
|
+
},
|
116
134
|
"Qwen/Qwen2.5-14B-Instruct": {
|
117
135
|
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
118
136
|
},
|
119
137
|
"Qwen/Qwen2.5-32B-Instruct": {
|
120
138
|
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
121
139
|
},
|
122
|
-
"Qwen/Qwen2.5-72B-Instruct": {
|
123
|
-
"description": "Qwen2.5, daha güçlü anlama ve üretim
|
140
|
+
"Qwen/Qwen2.5-72B-Instruct-128K": {
|
141
|
+
"description": "Qwen2.5, daha güçlü anlama ve üretim yeteneği ile yeni bir büyük dil modeli serisidir."
|
142
|
+
},
|
143
|
+
"Qwen/Qwen2.5-72B-Instruct-Turbo": {
|
144
|
+
"description": "Qwen2.5, komut tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
124
145
|
},
|
125
146
|
"Qwen/Qwen2.5-7B-Instruct": {
|
126
147
|
"description": "Qwen2.5, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
127
148
|
},
|
149
|
+
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
150
|
+
"description": "Qwen2.5, komut tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
151
|
+
},
|
128
152
|
"Qwen/Qwen2.5-Coder-7B-Instruct": {
|
129
153
|
"description": "Qwen2.5-Coder, kod yazmaya odaklanır."
|
130
154
|
},
|
@@ -158,9 +182,6 @@
|
|
158
182
|
"accounts/fireworks/models/firellava-13b": {
|
159
183
|
"description": "fireworks-ai/FireLLaVA-13b, hem görüntü hem de metin girdilerini alabilen, yüksek kaliteli verilerle eğitilmiş bir görsel dil modelidir ve çok modlu görevler için uygundur."
|
160
184
|
},
|
161
|
-
"accounts/fireworks/models/gemma2-9b-it": {
|
162
|
-
"description": "Gemma 2 9B talimat modeli, önceki Google teknolojilerine dayanarak, soru yanıtlama, özetleme ve akıl yürütme gibi çeşitli metin üretim görevleri için uygundur."
|
163
|
-
},
|
164
185
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
165
186
|
"description": "Llama 3 70B talimat modeli, çok dilli diyalog ve doğal dil anlama için optimize edilmiştir, çoğu rakip modelden daha iyi performans gösterir."
|
166
187
|
},
|
@@ -182,6 +203,18 @@
|
|
182
203
|
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
183
204
|
"description": "Llama 3.1 8B talimat modeli, çok dilli diyaloglar için optimize edilmiştir ve yaygın endüstri standartlarını aşmaktadır."
|
184
205
|
},
|
206
|
+
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
207
|
+
"description": "Meta'nın 11B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
|
208
|
+
},
|
209
|
+
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
210
|
+
"description": "Llama 3.2 1B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında bilgi alma ve özetleme bulunmaktadır."
|
211
|
+
},
|
212
|
+
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
213
|
+
"description": "Llama 3.2 3B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında sorgulama, öneri yeniden yazma ve yazma desteği bulunmaktadır."
|
214
|
+
},
|
215
|
+
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
216
|
+
"description": "Meta'nın 90B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
|
217
|
+
},
|
185
218
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
186
219
|
"description": "Mixtral MoE 8x22B talimat modeli, büyük ölçekli parametreler ve çok uzmanlı mimarisi ile karmaşık görevlerin etkili işlenmesini destekler."
|
187
220
|
},
|
@@ -197,6 +230,9 @@
|
|
197
230
|
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
198
231
|
"description": "Phi 3 Vision talimat modeli, karmaşık görsel ve metin bilgilerini işleyebilen hafif çok modlu bir modeldir ve güçlü akıl yürütme yeteneklerine sahiptir."
|
199
232
|
},
|
233
|
+
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
234
|
+
"description": "Qwen2.5, Alibaba Cloud Qwen ekibi tarafından geliştirilen yalnızca kodlayıcı içeren bir dizi dil modelidir. Bu modeller, 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B gibi farklı boyutları sunar ve temel (base) ve komut (instruct) versiyonlarına sahiptir."
|
235
|
+
},
|
200
236
|
"accounts/fireworks/models/starcoder-16b": {
|
201
237
|
"description": "StarCoder 15.5B modeli, ileri düzey programlama görevlerini destekler, çok dilli yetenekleri artırır ve karmaşık kod üretimi ve anlama için uygundur."
|
202
238
|
},
|
@@ -212,9 +248,6 @@
|
|
212
248
|
"ai21-jamba-1.5-mini": {
|
213
249
|
"description": "52B parametreli (12B aktif) çok dilli bir model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve temellendirilmiş üretim sunar."
|
214
250
|
},
|
215
|
-
"ai21-jamba-instruct": {
|
216
|
-
"description": "En iyi performans, kalite ve maliyet verimliliği sağlamak için üretim sınıfı Mamba tabanlı LLM modelidir."
|
217
|
-
},
|
218
251
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
219
252
|
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
|
220
253
|
},
|
@@ -592,9 +625,15 @@
|
|
592
625
|
"llama-3.1-sonar-small-128k-online": {
|
593
626
|
"description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
|
594
627
|
},
|
628
|
+
"llama-3.2-11b-vision-instruct": {
|
629
|
+
"description": "Yüksek çözünürlüklü görüntülerde mükemmel görüntü akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur."
|
630
|
+
},
|
595
631
|
"llama-3.2-11b-vision-preview": {
|
596
632
|
"description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
|
597
633
|
},
|
634
|
+
"llama-3.2-90b-vision-instruct": {
|
635
|
+
"description": "Görsel anlayış ajan uygulamaları için ileri düzey görüntü akıl yürütme yeteneği."
|
636
|
+
},
|
598
637
|
"llama-3.2-90b-vision-preview": {
|
599
638
|
"description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
|
600
639
|
},
|
@@ -652,8 +691,8 @@
|
|
652
691
|
"meta-llama/Llama-2-13b-chat-hf": {
|
653
692
|
"description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar."
|
654
693
|
},
|
655
|
-
"meta-llama/Llama-2-
|
656
|
-
"description": "
|
694
|
+
"meta-llama/Llama-2-70b-hf": {
|
695
|
+
"description": "LLaMA-2, mükemmel dil işleme yeteneği ve üstün etkileşim deneyimi sunar."
|
657
696
|
},
|
658
697
|
"meta-llama/Llama-3-70b-chat-hf": {
|
659
698
|
"description": "LLaMA-3 Chat (70B), karmaşık diyalog ihtiyaçlarını destekleyen güçlü bir sohbet modelidir."
|
@@ -661,6 +700,18 @@
|
|
661
700
|
"meta-llama/Llama-3-8b-chat-hf": {
|
662
701
|
"description": "LLaMA-3 Chat (8B), çok dilli desteği ile zengin alan bilgilerini kapsar."
|
663
702
|
},
|
703
|
+
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
|
704
|
+
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
705
|
+
},
|
706
|
+
"meta-llama/Llama-3.2-3B-Instruct-Turbo": {
|
707
|
+
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
708
|
+
},
|
709
|
+
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
|
710
|
+
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
711
|
+
},
|
712
|
+
"meta-llama/Llama-Vision-Free": {
|
713
|
+
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
714
|
+
},
|
664
715
|
"meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
|
665
716
|
"description": "Llama 3 70B Instruct Lite, yüksek performans ve düşük gecikme gerektiren ortamlara uygundur."
|
666
717
|
},
|
@@ -739,15 +790,18 @@
|
|
739
790
|
"minicpm-v": {
|
740
791
|
"description": "MiniCPM-V, OpenBMB tarafından sunulan yeni nesil çok modlu büyük bir modeldir; olağanüstü OCR tanıma ve çok modlu anlama yeteneklerine sahiptir ve geniş bir uygulama yelpazesini destekler."
|
741
792
|
},
|
793
|
+
"ministral-3b-latest": {
|
794
|
+
"description": "Ministral 3B, Mistral'ın dünya çapında en üst düzey kenar modelidir."
|
795
|
+
},
|
796
|
+
"ministral-8b-latest": {
|
797
|
+
"description": "Ministral 8B, Mistral'ın fiyat-performans oranı oldukça yüksek kenar modelidir."
|
798
|
+
},
|
742
799
|
"mistral": {
|
743
800
|
"description": "Mistral, Mistral AI tarafından sunulan 7B modelidir, değişken dil işleme ihtiyaçları için uygundur."
|
744
801
|
},
|
745
802
|
"mistral-large": {
|
746
803
|
"description": "Mixtral Large, Mistral'ın amiral gemisi modelidir, kod üretimi, matematik ve akıl yürütme yeteneklerini birleştirir, 128k bağlam penceresini destekler."
|
747
804
|
},
|
748
|
-
"mistral-large-2407": {
|
749
|
-
"description": "Mistral Large (2407), en son akıl yürütme, bilgi ve kodlama yetenekleri ile gelişmiş bir Büyük Dil Modelidir (LLM)."
|
750
|
-
},
|
751
805
|
"mistral-large-latest": {
|
752
806
|
"description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır."
|
753
807
|
},
|
@@ -769,12 +823,18 @@
|
|
769
823
|
"mistralai/Mistral-7B-Instruct-v0.3": {
|
770
824
|
"description": "Mistral (7B) Instruct v0.3, geniş uygulamalar için etkili hesaplama gücü ve doğal dil anlama sunar."
|
771
825
|
},
|
826
|
+
"mistralai/Mistral-7B-v0.1": {
|
827
|
+
"description": "Mistral 7B, kompakt ancak yüksek performanslı bir modeldir, sınıflandırma ve metin üretimi gibi basit görevlerde iyi bir akıl yürütme yeteneği ile yoğun işlem yapma konusunda uzmandır."
|
828
|
+
},
|
772
829
|
"mistralai/Mixtral-8x22B-Instruct-v0.1": {
|
773
830
|
"description": "Mixtral-8x22B Instruct (141B), son derece büyük bir dil modelidir ve çok yüksek işleme taleplerini destekler."
|
774
831
|
},
|
775
832
|
"mistralai/Mixtral-8x7B-Instruct-v0.1": {
|
776
833
|
"description": "Mixtral 8x7B, genel metin görevleri için kullanılan önceden eğitilmiş seyrek karışık uzman modelidir."
|
777
834
|
},
|
835
|
+
"mistralai/Mixtral-8x7B-v0.1": {
|
836
|
+
"description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevleri için uygundur."
|
837
|
+
},
|
778
838
|
"mistralai/mistral-7b-instruct": {
|
779
839
|
"description": "Mistral 7B Instruct, hız optimizasyonu ve uzun bağlam desteği sunan yüksek performanslı bir endüstri standart modelidir."
|
780
840
|
},
|
@@ -802,6 +862,9 @@
|
|
802
862
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
803
863
|
"description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
|
804
864
|
},
|
865
|
+
"nvidia/Llama-3.1-Nemotron-70B-Instruct": {
|
866
|
+
"description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş büyük bir dil modelidir, LLM tarafından üretilen yanıtların kullanıcı sorgularına daha iyi yardımcı olmasını sağlamak için tasarlanmıştır."
|
867
|
+
},
|
805
868
|
"o1-mini": {
|
806
869
|
"description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
807
870
|
},
|
@@ -988,6 +1051,12 @@
|
|
988
1051
|
"yi-large-turbo": {
|
989
1052
|
"description": "Son derece yüksek maliyet performansı ve mükemmel performans. Performans ve akıl yürütme hızı, maliyet açısından yüksek hassasiyetli ayarlama yapılır."
|
990
1053
|
},
|
1054
|
+
"yi-lightning": {
|
1055
|
+
"description": "En yeni yüksek performanslı model, yüksek kaliteli çıktıları garanti ederken akıl yürütme hızını büyük ölçüde artırır."
|
1056
|
+
},
|
1057
|
+
"yi-lightning-lite": {
|
1058
|
+
"description": "Hafif versiyon, yi-lightning kullanımını önerir."
|
1059
|
+
},
|
991
1060
|
"yi-medium": {
|
992
1061
|
"description": "Orta boyutlu model, dengeli yetenekler ve yüksek maliyet performansı sunar. Talimat takibi yetenekleri derinlemesine optimize edilmiştir."
|
993
1062
|
},
|