@lobehub/chat 1.57.1 → 1.59.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +1 -0
- package/locales/ar/modelProvider.json +24 -0
- package/locales/ar/models.json +60 -0
- package/locales/ar/providers.json +15 -0
- package/locales/bg-BG/modelProvider.json +24 -0
- package/locales/bg-BG/models.json +60 -0
- package/locales/bg-BG/providers.json +15 -0
- package/locales/de-DE/modelProvider.json +24 -0
- package/locales/de-DE/models.json +60 -0
- package/locales/de-DE/providers.json +15 -0
- package/locales/en-US/modelProvider.json +24 -0
- package/locales/en-US/models.json +60 -0
- package/locales/en-US/providers.json +15 -0
- package/locales/es-ES/modelProvider.json +24 -0
- package/locales/es-ES/models.json +60 -0
- package/locales/es-ES/providers.json +15 -0
- package/locales/fa-IR/modelProvider.json +24 -0
- package/locales/fa-IR/models.json +60 -0
- package/locales/fa-IR/providers.json +15 -0
- package/locales/fr-FR/modelProvider.json +24 -0
- package/locales/fr-FR/models.json +60 -0
- package/locales/fr-FR/providers.json +15 -0
- package/locales/it-IT/modelProvider.json +24 -0
- package/locales/it-IT/models.json +60 -0
- package/locales/it-IT/providers.json +15 -0
- package/locales/ja-JP/modelProvider.json +24 -0
- package/locales/ja-JP/models.json +60 -0
- package/locales/ja-JP/providers.json +15 -0
- package/locales/ko-KR/modelProvider.json +24 -0
- package/locales/ko-KR/models.json +60 -0
- package/locales/ko-KR/providers.json +15 -0
- package/locales/nl-NL/modelProvider.json +24 -0
- package/locales/nl-NL/models.json +60 -0
- package/locales/nl-NL/providers.json +15 -0
- package/locales/pl-PL/modelProvider.json +24 -0
- package/locales/pl-PL/models.json +60 -0
- package/locales/pl-PL/providers.json +15 -0
- package/locales/pt-BR/modelProvider.json +24 -0
- package/locales/pt-BR/models.json +60 -0
- package/locales/pt-BR/providers.json +15 -0
- package/locales/ru-RU/modelProvider.json +24 -0
- package/locales/ru-RU/models.json +60 -0
- package/locales/ru-RU/providers.json +15 -0
- package/locales/tr-TR/modelProvider.json +24 -0
- package/locales/tr-TR/models.json +60 -0
- package/locales/tr-TR/providers.json +15 -0
- package/locales/vi-VN/modelProvider.json +24 -0
- package/locales/vi-VN/models.json +60 -0
- package/locales/vi-VN/providers.json +15 -0
- package/locales/zh-CN/modelProvider.json +24 -0
- package/locales/zh-CN/models.json +1109 -1049
- package/locales/zh-CN/providers.json +82 -67
- package/locales/zh-TW/modelProvider.json +24 -0
- package/locales/zh-TW/models.json +60 -0
- package/locales/zh-TW/providers.json +15 -0
- package/next.config.ts +5 -0
- package/package.json +4 -2
- package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
- package/src/app/[variants]/(main)/settings/provider/(list)/ProviderGrid/index.tsx +6 -3
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
- package/src/config/aiModels/azureai.ts +18 -0
- package/src/config/aiModels/index.ts +6 -0
- package/src/config/aiModels/volcengine.ts +83 -0
- package/src/config/llm.ts +6 -0
- package/src/config/modelProviders/azure.ts +2 -1
- package/src/config/modelProviders/azureai.ts +19 -0
- package/src/config/modelProviders/index.ts +6 -0
- package/src/config/modelProviders/volcengine.ts +23 -0
- package/src/database/server/models/aiProvider.ts +2 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +17 -8
- package/src/libs/agent-runtime/azureai/index.ts +109 -0
- package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
- package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
- package/src/libs/agent-runtime/index.ts +2 -1
- package/src/libs/agent-runtime/types/type.ts +5 -0
- package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
- package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
- package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
- package/src/libs/agent-runtime/{doubao → volcengine}/index.ts +3 -3
- package/src/locales/default/modelProvider.ts +25 -0
- package/src/server/modules/AgentRuntime/index.ts +8 -1
- package/src/services/chat.ts +16 -4
- package/src/types/aiProvider.ts +5 -0
- package/src/types/user/settings/keyVaults.ts +2 -0
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Версия API Azure, формат YYYY-MM-DD, смотрите [последнюю версию](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Получить список",
|
26
|
+
"title": "Версия API Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Найдите конечную точку вывода модели Azure AI в обзоре проекта Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Конечная точка Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Найдите API-ключ в обзоре проекта Azure AI",
|
36
|
+
"placeholder": "Ключ Azure",
|
37
|
+
"title": "Ключ"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Введите ваш AWS Access Key ID",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Адрес прокси"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Пожалуйста, выберите тип SDK",
|
101
120
|
"title": "Формат запроса"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Пожалуйста, введите имя развертывания модели в Azure",
|
211
230
|
"title": "Имя развертывания модели"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Это поле будет использоваться как идентификатор модели при отправке запроса",
|
234
|
+
"placeholder": "Введите фактическое имя или id развертывания модели",
|
235
|
+
"title": "Имя развертывания модели"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Пожалуйста, введите отображаемое имя модели, например, ChatGPT, GPT-4 и т.д.",
|
215
239
|
"title": "Отображаемое имя модели"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "Современная эффективная LLM, специализирующаяся на рассуждениях, математике и программировании."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 — это модель визуального языка, разработанная на основе DeepSeekMoE-27B, использующая архитектуру MoE с разреженной активацией, которая демонстрирует выдающуюся производительность при активации всего 4,5 миллиарда параметров. Эта модель показывает отличные результаты в таких задачах, как визуальные вопросы и ответы, оптическое распознавание символов, понимание документов/таблиц/графиков и визуальная локализация."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro сочетает в себе новейшие технологии оптимизации, обеспечивая более эффективную обработку многомодальных данных."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 — это эффективная модель, представленная Google, охватывающая широкий спектр приложений от небольших до сложных задач обработки данных."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Легковесная модель настройки инструкций от Google."
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 — это эффективная модель, представленная Google, охватывающая широкий спектр приложений от небольших до сложных задач обработки данных."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Глубокий поиск сочетает в себе сетевой поиск, чтение и рассуждение, позволяя проводить всесторонние исследования. Вы можете рассматривать его как агента, который принимает ваши исследовательские задачи — он проводит обширный поиск и проходит через множество итераций, прежде чем предоставить ответ. Этот процесс включает в себя постоянные исследования, рассуждения и решение проблем с разных точек зрения. Это принципиально отличается от стандартных больших моделей, которые генерируют ответы непосредственно из предобученных данных, и от традиционных систем RAG, полагающихся на одноразовый поверхностный поиск."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "Модель Llama 3.1 Turbo 405B предлагает огромную поддержку контекста для обработки больших данных и демонстрирует выдающиеся результаты в масштабных приложениях искусственного интеллекта."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 — это передовая модель, представленная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B предлагает эффективную поддержку диалогов на нескольких языках."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "Современная LLM, поддерживающая генерацию синтетических данных, дистилляцию знаний и рассуждения, подходит для чат-ботов, программирования и специализированных задач."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Обеспечивает сложные диалоги, обладая выдающимся пониманием контекста, способностями к рассуждению и генерации текста."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Современная передовая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Современная LLM, специализирующаяся на рассуждениях, математике, здравом смысле и вызовах функций."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B — это крупная языковая модель, созданная NVIDIA, предназначенная для повышения полезности ответов, генерируемых LLM, на запросы пользователей. Эта модель показала отличные результаты в таких бенчмарках, как Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, и на 1 октября 2024 года занимает первое место во всех трех автоматических тестах на согласование. Модель обучалась с использованием RLHF (в частности, REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference на основе модели Llama-3.1-70B-Instruct."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Уникальная языковая модель, обеспечивающая непревзойденную точность и эффективность."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B — это крупная языковая модель, разработанная NVIDIA, предназначенная для повышения полезности ответов, генерируемых LLM."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Сосредоточена на высокоуровневом выводе и решении сложных задач, включая математические и научные задачи. Идеально подходит для приложений, требующих глубокого понимания контекста и управления рабочими процессами."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 — это новая серия крупных языковых моделей с более сильными возможностями понимания и генерации."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM, ориентированная на китайский и английский языки, охватывающая области языка, программирования, математики, рассуждений и др."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "Современная LLM, поддерживающая генерацию кода, рассуждения и исправления, охватывающая основные языки программирования."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Мощная средняя модель кода, поддерживающая контекст длиной 32K, специализирующаяся на многоязычном программировании."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure предлагает множество передовых AI-моделей, включая GPT-3.5 и новейшую серию GPT-4, поддерживающих различные типы данных и сложные задачи, с акцентом на безопасность, надежность и устойчивые AI-решения."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure предлагает множество современных AI моделей, включая GPT-3.5 и последнюю серию GPT-4, поддерживающих различные типы данных и сложные задачи, нацеленных на безопасные, надежные и устойчивые AI решения."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent — это компания, сосредоточенная на разработке больших моделей искусственного интеллекта, чьи модели показывают выдающиеся результаты в области китайских задач, таких как знаниевые энциклопедии, обработка длинных текстов и генерация контента, превосходя зарубежные модели. Baichuan Intelligent также обладает передовыми мультимодальными возможностями и показала отличные результаты в нескольких авторитетных оценках. Их модели включают Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизированные для различных сценариев применения, предлагая высокоэффективные решения."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Открытая организация, занимающаяся исследованием и разработкой инструментов для больших моделей. Предоставляет всем разработчикам ИИ эффективную и удобную открытую платформу, позволяя получить доступ к самым современным технологиям больших моделей и алгоритмов."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI была основана в 2020 году и является ведущей компанией в области поискового AI. Наша платформа поискового базиса включает векторные модели, реорганизаторы и небольшие языковые модели, которые помогают предприятиям создавать надежные и высококачественные генеративные AI и мультимодальные поисковые приложения."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI — это платформа, предлагающая API-сервисы для различных больших языковых моделей и генерации изображений AI, гибкая, надежная и экономически эффективная. Она поддерживает новейшие открытые модели, такие как Llama3, Mistral и предоставляет комплексные, удобные для пользователя и автоматически масштабируемые API-решения для разработки генеративных AI-приложений, подходящие для быстрого роста AI-стартапов."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ предоставляет контейнеры для самообслуживания GPU-ускоренного вывода микросервисов, поддерживающих развертывание предобученных и пользовательских AI моделей в облаке, центрах обработки данных, на персональных компьютерах RTX™ AI и рабочих станциях."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Модели, предлагаемые Ollama, охватывают широкий спектр областей, включая генерацию кода, математические вычисления, многоязыковую обработку и диалоговое взаимодействие, поддерживая разнообразные потребности в развертывании на уровне предприятий и локализации."
|
73
82
|
},
|
@@ -107,6 +116,12 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage сосредоточен на разработке AI-моделей для различных бизнес-потребностей, включая Solar LLM и документальный AI, с целью достижения искусственного общего интеллекта (AGI). Создавайте простые диалоговые агенты через Chat API и поддерживайте вызовы функций, переводы, встраивания и приложения в конкретных областях."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM — это быстрая и простая в использовании библиотека для вывода и обслуживания LLM."
|
121
|
+
},
|
122
|
+
"volcengine": {
|
123
|
+
"description": "Платформа разработки сервисов больших моделей, запущенная ByteDance, предлагает функционально богатые, безопасные и конкурентоспособные по цене услуги вызова моделей, а также предоставляет полные функции от данных моделей, тонкой настройки, вывода до оценки, обеспечивая всестороннюю поддержку разработки ваших AI приложений."
|
124
|
+
},
|
110
125
|
"wenxin": {
|
111
126
|
"description": "Корпоративная платформа для разработки и обслуживания крупных моделей и нативных приложений ИИ, предлагающая самый полный и удобный инструментарий для разработки генеративных моделей искусственного интеллекта и полного процесса разработки приложений."
|
112
127
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Azure API sürümü, YYYY-AA-GG formatına uymaktadır, [en son sürümü](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions) kontrol edin",
|
25
|
+
"fetch": "Listeyi al",
|
26
|
+
"title": "Azure API Sürümü"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Azure AI proje özetinden Azure AI model çıkarım uç noktasını bulun",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Azure AI Uç Noktası"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Azure AI proje özetinden API anahtarını bulun",
|
36
|
+
"placeholder": "Azure Anahtarı",
|
37
|
+
"title": "Anahtar"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "AWS Access Key Id girin",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Proxy Adresi"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Lütfen SDK türünü seçin",
|
101
120
|
"title": "İstek Formatı"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Lütfen Azure'daki model dağıtım adını girin",
|
211
230
|
"title": "Model Dağıtım Adı"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Bu alan, isteği gönderirken model kimliği olarak kullanılacaktır",
|
234
|
+
"placeholder": "Modelin gerçek dağıtım adını veya kimliğini girin",
|
235
|
+
"title": "Model Dağıtım Adı"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Lütfen modelin gösterim adını girin, örneğin ChatGPT, GPT-4 vb.",
|
215
239
|
"title": "Model Gösterim Adı"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "En son teknolojiye sahip verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı bir karma uzman (MoE) görsel dil modelidir. Seyrek etkinleştirilen MoE mimarisini kullanarak yalnızca 4.5B parametreyi etkinleştirerek olağanüstü performans sergilemektedir. Bu model, görsel soru yanıtlama, optik karakter tanıma, belge/tablolar/grafikler anlama ve görsel konumlandırma gibi birçok görevde mükemmel sonuçlar elde etmektedir."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Google'ın hafif talimat ayarlama modeli"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Derin arama, web araması, okuma ve akıl yürütmeyi birleştirerek kapsamlı bir araştırma yapar. Bunu, araştırma görevlerinizi kabul eden bir ajan olarak düşünebilirsiniz - geniş bir arama yapar ve birden fazla yineleme ile cevap verir. Bu süreç, sürekli araştırma, akıl yürütme ve sorunları çeşitli açılardan çözmeyi içerir. Bu, doğrudan önceden eğitilmiş verilerden cevaplar üreten standart büyük modellerle ve tek seferlik yüzey aramasına dayanan geleneksel RAG sistemleriyle temelde farklıdır."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "405B Llama 3.1 Turbo modeli, büyük veri işleme için devasa bağlam desteği sunar ve büyük ölçekli AI uygulamalarında öne çıkar."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında uygulanabilir."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B, çok dilli yüksek verimli diyalog desteği sunmaktadır."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "Gelişmiş LLM, sentetik veri üretimi, bilgi damıtma ve akıl yürütmeyi destekler, sohbet botları, programlama ve belirli alan görevleri için uygundur."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Karmaşık diyalogları güçlendiren, mükemmel bağlam anlama, akıl yürütme yeteneği ve metin üretimi yeteneğine sahip."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "En son teknolojiye sahip model, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Akıllı LLM, akıl yürütme, matematik, genel bilgi ve fonksiyon çağrılarında uzmandır."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş büyük bir dil modelidir ve LLM tarafından üretilen yanıtların kullanıcı sorgularına yardımcı olma düzeyini artırmayı amaçlamaktadır. Bu model, Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench gibi standart testlerde mükemmel performans sergilemiştir ve 1 Ekim 2024 itibarıyla tüm üç otomatik hizalama testinde birinci sıradadır. Model, Llama-3.1-70B-Instruct modelinin temelinde RLHF (özellikle REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference ipuçları kullanılarak eğitilmiştir."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Eşsiz bir dil modeli, benzersiz doğruluk ve verimlilik sunar."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct, NVIDIA'nın özel olarak geliştirdiği büyük dil modelidir ve LLM tarafından üretilen yanıtların yardımcı olmasını artırmayı amaçlar."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2, daha güçlü anlama ve üretme yeteneklerine sahip yeni bir büyük dil modeli serisidir."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "Çince ve İngilizce'ye yönelik LLM, dil, programlama, matematik, akıl yürütme gibi alanlara odaklanır."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "Gelişmiş LLM, kod üretimi, akıl yürütme ve düzeltme desteği sunar, ana akım programlama dillerini kapsar."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure, GPT-3.5 ve en son GPT-4 serisi gibi çeşitli gelişmiş yapay zeka modelleri sunar. Farklı veri türlerini ve karmaşık görevleri destekleyerek güvenli, güvenilir ve sürdürülebilir yapay zeka çözümleri sağlamaya odaklanmaktadır."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure, GPT-3.5 ve en son GPT-4 serisi dahil olmak üzere çeşitli gelişmiş AI modelleri sunar, çeşitli veri türlerini ve karmaşık görevleri destekler, güvenli, güvenilir ve sürdürülebilir AI çözümlerine odaklanır."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent, yapay zeka büyük modellerinin geliştirilmesine odaklanan bir şirkettir. Modelleri, yerel bilgi ansiklopedisi, uzun metin işleme ve üretim gibi Çince görevlerde mükemmel performans sergilemekte ve uluslararası ana akım modelleri aşmaktadır. Baichuan Intelligent ayrıca sektördeki lider çok modlu yeteneklere sahiptir ve birçok otoriter değerlendirmede mükemmel sonuçlar elde etmiştir. Modelleri, Baichuan 4, Baichuan 3 Turbo ve Baichuan 3 Turbo 128k gibi farklı uygulama senaryolarına yönelik optimize edilmiş yüksek maliyet etkinliği çözümleri sunmaktadır."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Büyük model araştırma ve geliştirme araç zincirine adanmış bir açık kaynak organizasyonu. Tüm AI geliştiricilerine verimli ve kullanımı kolay bir açık kaynak platformu sunarak en son büyük model ve algoritma teknolojilerine erişimi kolaylaştırır."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI, 2020 yılında kurulmuş, önde gelen bir arama AI şirketidir. Arama tabanlı platformumuz, işletmelerin güvenilir ve yüksek kaliteli üretken AI ve çok modlu arama uygulamaları geliştirmelerine yardımcı olan vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içerir."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio, bilgisayarınızda LLM'ler geliştirmek ve denemeler yapmak için bir masaüstü uygulamasıdır."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI, çeşitli büyük dil modelleri ve yapay zeka görüntü üretimi API hizmetleri sunan bir platformdur. Esnek, güvenilir ve maliyet etkin bir yapıya sahiptir. Llama3, Mistral gibi en son açık kaynak modelleri desteklemekte ve üretken yapay zeka uygulama geliştirme için kapsamlı, kullanıcı dostu ve otomatik ölçeklenebilir API çözümleri sunmaktadır. Bu, yapay zeka girişimlerinin hızlı gelişimi için uygundur."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™, bulut, veri merkezi, RTX™ AI kişisel bilgisayarlar ve iş istasyonlarında önceden eğitilmiş ve özelleştirilmiş AI modellerinin dağıtımını destekleyen, kendi kendine barındırılan GPU hızlandırmalı çıkarım mikro hizmetleri için konteynerler sunar."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Ollama'nın sunduğu modeller, kod üretimi, matematiksel işlemler, çok dilli işleme ve diyalog etkileşimi gibi alanları kapsamaktadır. Kurumsal düzeyde ve yerelleştirilmiş dağıtım için çeşitli ihtiyaçları desteklemektedir."
|
73
82
|
},
|
@@ -107,6 +116,12 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage, çeşitli ticari ihtiyaçlar için yapay zeka modelleri geliştirmeye odaklanmaktadır. Solar LLM ve belge AI gibi modeller, insan yapımı genel zeka (AGI) hedeflemektedir. Chat API aracılığıyla basit diyalog ajanları oluşturmakta ve işlev çağrısı, çeviri, gömme ve belirli alan uygulamalarını desteklemektedir."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM, LLM çıkarımı ve hizmetleri için hızlı ve kullanımı kolay bir kütüphanedir."
|
121
|
+
},
|
122
|
+
"volcengine": {
|
123
|
+
"description": "ByteDance tarafından sunulan büyük model hizmetleri geliştirme platformu, zengin özellikler, güvenlik ve rekabetçi fiyatlarla model çağırma hizmetleri sunar. Ayrıca model verileri, ince ayar, çıkarım, değerlendirme gibi uçtan uca işlevler sağlar ve AI uygulama geliştirme sürecinizi her yönüyle güvence altına alır."
|
124
|
+
},
|
110
125
|
"wenxin": {
|
111
126
|
"description": "Kurumsal düzeyde tek duraklı büyük model ve AI yerel uygulama geliştirme ve hizmet platformu, en kapsamlı ve kullanımı kolay üretken yapay zeka modeli geliştirme, uygulama geliştirme için tam süreç araç zinciri sunar."
|
112
127
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Phiên bản API của Azure, theo định dạng YYYY-MM-DD, tham khảo [phiên bản mới nhất](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Lấy danh sách",
|
26
|
+
"title": "Phiên bản API Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Tìm điểm kết thúc suy diễn mô hình Azure AI từ tổng quan dự án Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Điểm kết thúc Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Tìm khóa API từ tổng quan dự án Azure AI",
|
36
|
+
"placeholder": "Khóa Azure",
|
37
|
+
"title": "Khóa"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Nhập AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Địa chỉ proxy"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Vui lòng chọn loại SDK",
|
101
120
|
"title": "Định dạng yêu cầu"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Vui lòng nhập tên triển khai mô hình trong Azure",
|
211
230
|
"title": "Tên triển khai mô hình"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Trường này sẽ được sử dụng làm ID mô hình khi gửi yêu cầu",
|
234
|
+
"placeholder": "Vui lòng nhập tên hoặc ID thực tế của mô hình đã triển khai",
|
235
|
+
"title": "Tên triển khai mô hình"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Vui lòng nhập tên hiển thị của mô hình, ví dụ ChatGPT, GPT-4, v.v.",
|
215
239
|
"title": "Tên hiển thị mô hình"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "LLM hiệu quả tiên tiến, xuất sắc trong suy luận, toán học và lập trình."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 là một mô hình ngôn ngữ hình ảnh hỗn hợp chuyên gia (MoE) được phát triển dựa trên DeepSeekMoE-27B, sử dụng kiến trúc MoE với kích hoạt thưa, đạt được hiệu suất xuất sắc chỉ với 4.5B tham số được kích hoạt. Mô hình này thể hiện xuất sắc trong nhiều nhiệm vụ như hỏi đáp hình ảnh, nhận diện ký tự quang học, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro kết hợp công nghệ tối ưu hóa mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Mô hình tinh chỉnh hướng dẫn nhẹ của Google"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 là một loạt mô hình văn bản mã nguồn mở nhẹ của Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, dẫn đầu trong số các mô hình mã nguồn mở cùng cấp. Mặc định chỉ đến mô hình InternLM3 mới nhất mà chúng tôi đã phát hành."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Tìm kiếm sâu kết hợp tìm kiếm trên mạng, đọc và suy luận, có thể thực hiện điều tra toàn diện. Bạn có thể coi nó như một đại lý, nhận nhiệm vụ nghiên cứu của bạn - nó sẽ thực hiện tìm kiếm rộng rãi và qua nhiều lần lặp lại trước khi đưa ra câu trả lời. Quá trình này liên quan đến nghiên cứu liên tục, suy luận và giải quyết vấn đề từ nhiều góc độ. Điều này khác biệt hoàn toàn với việc tạo ra câu trả lời trực tiếp từ dữ liệu đã được huấn luyện trước của các mô hình lớn tiêu chuẩn và các hệ thống RAG truyền thống dựa vào tìm kiếm bề mặt một lần."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "Mô hình Llama 3.1 Turbo 405B cung cấp hỗ trợ ngữ cảnh dung lượng lớn cho xử lý dữ liệu lớn, thể hiện xuất sắc trong các ứng dụng trí tuệ nhân tạo quy mô lớn."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 là mô hình hàng đầu do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B cung cấp hỗ trợ đối thoại hiệu quả đa ngôn ngữ."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "LLM cao cấp, hỗ trợ tạo dữ liệu tổng hợp, chưng cất kiến thức và suy luận, phù hợp cho chatbot, lập trình và các nhiệm vụ chuyên biệt."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Tăng cường cuộc đối thoại phức tạp, có khả năng hiểu ngữ cảnh xuất sắc, suy luận và sinh văn bản."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Mô hình tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Mô hình LLM tiên tiến, xuất sắc trong suy luận, toán học, kiến thức chung và gọi hàm."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B là một mô hình ngôn ngữ quy mô lớn tùy chỉnh bởi NVIDIA, nhằm nâng cao mức độ hỗ trợ của phản hồi do LLM tạo ra đối với các truy vấn của người dùng. Mô hình này đã thể hiện xuất sắc trong các bài kiểm tra chuẩn như Arena Hard, AlpacaEval 2 LC và GPT-4-Turbo MT-Bench, đứng đầu trong cả ba bài kiểm tra tự động cho đến ngày 1 tháng 10 năm 2024. Mô hình sử dụng RLHF (đặc biệt là REINFORCE), Llama-3.1-Nemotron-70B-Reward và HelpSteer2-Preference để đào tạo trên cơ sở mô hình Llama-3.1-70B-Instruct."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Mô hình ngôn ngữ độc đáo, cung cấp độ chính xác và hiệu suất không thể sánh kịp."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B là mô hình ngôn ngữ lớn tùy chỉnh của NVIDIA, nhằm nâng cao tính hữu ích của các phản hồi do LLM tạo ra."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Tập trung vào suy diễn nâng cao và giải quyết các vấn đề phức tạp, bao gồm các nhiệm vụ toán học và khoa học. Rất phù hợp cho các ứng dụng cần hiểu biết sâu sắc về ngữ cảnh và quy trình làm việc đại diện."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và sinh mạnh mẽ hơn."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM hướng đến tiếng Trung và tiếng Anh, tập trung vào ngôn ngữ, lập trình, toán học, suy luận và các lĩnh vực khác."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "LLM cao cấp, hỗ trợ tạo mã, suy luận và sửa chữa, bao gồm các ngôn ngữ lập trình phổ biến."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Mô hình mã mạnh mẽ cỡ trung, hỗ trợ độ dài ngữ cảnh 32K, xuất sắc trong lập trình đa ngôn ngữ."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
|
1411
1471
|
},
|