@lobehub/chat 1.57.1 → 1.58.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docker-compose/local/docker-compose.yml +1 -0
- package/locales/ar/modelProvider.json +24 -0
- package/locales/ar/models.json +60 -0
- package/locales/ar/providers.json +12 -0
- package/locales/bg-BG/modelProvider.json +24 -0
- package/locales/bg-BG/models.json +60 -0
- package/locales/bg-BG/providers.json +12 -0
- package/locales/de-DE/modelProvider.json +24 -0
- package/locales/de-DE/models.json +60 -0
- package/locales/de-DE/providers.json +12 -0
- package/locales/en-US/modelProvider.json +24 -0
- package/locales/en-US/models.json +60 -0
- package/locales/en-US/providers.json +12 -0
- package/locales/es-ES/modelProvider.json +24 -0
- package/locales/es-ES/models.json +60 -0
- package/locales/es-ES/providers.json +12 -0
- package/locales/fa-IR/modelProvider.json +30 -0
- package/locales/fa-IR/models.json +60 -0
- package/locales/fa-IR/providers.json +12 -0
- package/locales/fr-FR/modelProvider.json +24 -0
- package/locales/fr-FR/models.json +60 -0
- package/locales/fr-FR/providers.json +12 -0
- package/locales/it-IT/modelProvider.json +24 -0
- package/locales/it-IT/models.json +60 -0
- package/locales/it-IT/providers.json +12 -0
- package/locales/ja-JP/modelProvider.json +24 -0
- package/locales/ja-JP/models.json +60 -0
- package/locales/ja-JP/providers.json +12 -0
- package/locales/ko-KR/modelProvider.json +24 -0
- package/locales/ko-KR/models.json +60 -0
- package/locales/ko-KR/providers.json +12 -0
- package/locales/nl-NL/modelProvider.json +24 -0
- package/locales/nl-NL/models.json +60 -0
- package/locales/nl-NL/providers.json +12 -0
- package/locales/pl-PL/modelProvider.json +24 -0
- package/locales/pl-PL/models.json +60 -0
- package/locales/pl-PL/providers.json +12 -0
- package/locales/pt-BR/modelProvider.json +24 -0
- package/locales/pt-BR/models.json +60 -0
- package/locales/pt-BR/providers.json +12 -0
- package/locales/ru-RU/modelProvider.json +24 -0
- package/locales/ru-RU/models.json +60 -0
- package/locales/ru-RU/providers.json +12 -0
- package/locales/tr-TR/modelProvider.json +30 -0
- package/locales/tr-TR/models.json +60 -0
- package/locales/tr-TR/providers.json +12 -0
- package/locales/vi-VN/modelProvider.json +24 -0
- package/locales/vi-VN/models.json +60 -0
- package/locales/vi-VN/providers.json +12 -0
- package/locales/zh-CN/modelProvider.json +24 -0
- package/locales/zh-CN/models.json +1112 -1052
- package/locales/zh-CN/providers.json +80 -68
- package/locales/zh-TW/modelProvider.json +24 -0
- package/locales/zh-TW/models.json +60 -0
- package/locales/zh-TW/providers.json +12 -0
- package/package.json +4 -2
- package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
- package/src/config/aiModels/azureai.ts +18 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/modelProviders/azure.ts +2 -1
- package/src/config/modelProviders/azureai.ts +19 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/database/server/models/aiProvider.ts +2 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +13 -6
- package/src/libs/agent-runtime/azureai/index.ts +109 -0
- package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
- package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
- package/src/libs/agent-runtime/index.ts +1 -0
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
- package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
- package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
- package/src/locales/default/modelProvider.ts +25 -0
- package/src/server/modules/AgentRuntime/index.ts +8 -1
- package/src/services/chat.ts +12 -3
- package/src/types/aiProvider.ts +1 -0
- package/src/types/user/settings/keyVaults.ts +1 -0
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure предлагает множество передовых AI-моделей, включая GPT-3.5 и новейшую серию GPT-4, поддерживающих различные типы данных и сложные задачи, с акцентом на безопасность, надежность и устойчивые AI-решения."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure предлагает множество современных AI моделей, включая GPT-3.5 и последнюю серию GPT-4, поддерживающих различные типы данных и сложные задачи, нацеленных на безопасные, надежные и устойчивые AI решения."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent — это компания, сосредоточенная на разработке больших моделей искусственного интеллекта, чьи модели показывают выдающиеся результаты в области китайских задач, таких как знаниевые энциклопедии, обработка длинных текстов и генерация контента, превосходя зарубежные модели. Baichuan Intelligent также обладает передовыми мультимодальными возможностями и показала отличные результаты в нескольких авторитетных оценках. Их модели включают Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизированные для различных сценариев применения, предлагая высокоэффективные решения."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Открытая организация, занимающаяся исследованием и разработкой инструментов для больших моделей. Предоставляет всем разработчикам ИИ эффективную и удобную открытую платформу, позволяя получить доступ к самым современным технологиям больших моделей и алгоритмов."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI была основана в 2020 году и является ведущей компанией в области поискового AI. Наша платформа поискового базиса включает векторные модели, реорганизаторы и небольшие языковые модели, которые помогают предприятиям создавать надежные и высококачественные генеративные AI и мультимодальные поисковые приложения."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI — это платформа, предлагающая API-сервисы для различных больших языковых моделей и генерации изображений AI, гибкая, надежная и экономически эффективная. Она поддерживает новейшие открытые модели, такие как Llama3, Mistral и предоставляет комплексные, удобные для пользователя и автоматически масштабируемые API-решения для разработки генеративных AI-приложений, подходящие для быстрого роста AI-стартапов."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ предоставляет контейнеры для самообслуживания GPU-ускоренного вывода микросервисов, поддерживающих развертывание предобученных и пользовательских AI моделей в облаке, центрах обработки данных, на персональных компьютерах RTX™ AI и рабочих станциях."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Модели, предлагаемые Ollama, охватывают широкий спектр областей, включая генерацию кода, математические вычисления, многоязыковую обработку и диалоговое взаимодействие, поддерживая разнообразные потребности в развертывании на уровне предприятий и локализации."
|
73
82
|
},
|
@@ -107,6 +116,9 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage сосредоточен на разработке AI-моделей для различных бизнес-потребностей, включая Solar LLM и документальный AI, с целью достижения искусственного общего интеллекта (AGI). Создавайте простые диалоговые агенты через Chat API и поддерживайте вызовы функций, переводы, встраивания и приложения в конкретных областях."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM — это быстрая и простая в использовании библиотека для вывода и обслуживания LLM."
|
121
|
+
},
|
110
122
|
"wenxin": {
|
111
123
|
"description": "Корпоративная платформа для разработки и обслуживания крупных моделей и нативных приложений ИИ, предлагающая самый полный и удобный инструментарий для разработки генеративных моделей искусственного интеллекта и полного процесса разработки приложений."
|
112
124
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Azure API sürümü, YYYY-AA-GG formatına uymaktadır, [en son sürümü](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions) kontrol edin",
|
25
|
+
"fetch": "Listeyi al",
|
26
|
+
"title": "Azure API Sürümü"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Azure AI proje özetinden Azure AI model çıkarım uç noktasını bulun",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Azure AI Uç Noktası"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Azure AI proje özetinden API anahtarını bulun",
|
36
|
+
"placeholder": "Azure Anahtarı",
|
37
|
+
"title": "Anahtar"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "AWS Access Key Id girin",
|
@@ -92,11 +110,23 @@
|
|
92
110
|
"required": "Lütfen hizmet sağlayıcı adını girin",
|
93
111
|
"title": "Hizmet Sağlayıcı Adı"
|
94
112
|
},
|
113
|
+
"providerModels": {
|
114
|
+
"item": {
|
115
|
+
"modelConfig": {
|
116
|
+
"deployName": {
|
117
|
+
"extra": "İstek gönderildiğinde bu alan model ID'si olarak kullanılacaktır",
|
118
|
+
"placeholder": "Lütfen modelin gerçek dağıtım adını veya kimliğini girin",
|
119
|
+
"title": "Model Dağıtım Adı"
|
120
|
+
}
|
121
|
+
}
|
122
|
+
}
|
123
|
+
},
|
95
124
|
"proxyUrl": {
|
96
125
|
"required": "Lütfen proxy adresini girin",
|
97
126
|
"title": "Proxy Adresi"
|
98
127
|
},
|
99
128
|
"sdkType": {
|
129
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
130
|
"required": "Lütfen SDK türünü seçin",
|
101
131
|
"title": "İstek Formatı"
|
102
132
|
},
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "En son teknolojiye sahip verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı bir karma uzman (MoE) görsel dil modelidir. Seyrek etkinleştirilen MoE mimarisini kullanarak yalnızca 4.5B parametreyi etkinleştirerek olağanüstü performans sergilemektedir. Bu model, görsel soru yanıtlama, optik karakter tanıma, belge/tablolar/grafikler anlama ve görsel konumlandırma gibi birçok görevde mükemmel sonuçlar elde etmektedir."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Google'ın hafif talimat ayarlama modeli"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Derin arama, web araması, okuma ve akıl yürütmeyi birleştirerek kapsamlı bir araştırma yapar. Bunu, araştırma görevlerinizi kabul eden bir ajan olarak düşünebilirsiniz - geniş bir arama yapar ve birden fazla yineleme ile cevap verir. Bu süreç, sürekli araştırma, akıl yürütme ve sorunları çeşitli açılardan çözmeyi içerir. Bu, doğrudan önceden eğitilmiş verilerden cevaplar üreten standart büyük modellerle ve tek seferlik yüzey aramasına dayanan geleneksel RAG sistemleriyle temelde farklıdır."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "405B Llama 3.1 Turbo modeli, büyük veri işleme için devasa bağlam desteği sunar ve büyük ölçekli AI uygulamalarında öne çıkar."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında uygulanabilir."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B, çok dilli yüksek verimli diyalog desteği sunmaktadır."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "Gelişmiş LLM, sentetik veri üretimi, bilgi damıtma ve akıl yürütmeyi destekler, sohbet botları, programlama ve belirli alan görevleri için uygundur."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Karmaşık diyalogları güçlendiren, mükemmel bağlam anlama, akıl yürütme yeteneği ve metin üretimi yeteneğine sahip."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "En son teknolojiye sahip model, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Akıllı LLM, akıl yürütme, matematik, genel bilgi ve fonksiyon çağrılarında uzmandır."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş büyük bir dil modelidir ve LLM tarafından üretilen yanıtların kullanıcı sorgularına yardımcı olma düzeyini artırmayı amaçlamaktadır. Bu model, Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench gibi standart testlerde mükemmel performans sergilemiştir ve 1 Ekim 2024 itibarıyla tüm üç otomatik hizalama testinde birinci sıradadır. Model, Llama-3.1-70B-Instruct modelinin temelinde RLHF (özellikle REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference ipuçları kullanılarak eğitilmiştir."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Eşsiz bir dil modeli, benzersiz doğruluk ve verimlilik sunar."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct, NVIDIA'nın özel olarak geliştirdiği büyük dil modelidir ve LLM tarafından üretilen yanıtların yardımcı olmasını artırmayı amaçlar."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Gelişmiş çıkarım ve karmaşık sorunları çözmeye odaklanır, matematik ve bilim görevlerini içerir. Derin bağlam anlayışı ve aracılık iş akışları gerektiren uygulamalar için son derece uygundur."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2, daha güçlü anlama ve üretme yeteneklerine sahip yeni bir büyük dil modeli serisidir."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "Çince ve İngilizce'ye yönelik LLM, dil, programlama, matematik, akıl yürütme gibi alanlara odaklanır."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "Gelişmiş LLM, kod üretimi, akıl yürütme ve düzeltme desteği sunar, ana akım programlama dillerini kapsar."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure, GPT-3.5 ve en son GPT-4 serisi gibi çeşitli gelişmiş yapay zeka modelleri sunar. Farklı veri türlerini ve karmaşık görevleri destekleyerek güvenli, güvenilir ve sürdürülebilir yapay zeka çözümleri sağlamaya odaklanmaktadır."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure, GPT-3.5 ve en son GPT-4 serisi dahil olmak üzere çeşitli gelişmiş AI modelleri sunar, çeşitli veri türlerini ve karmaşık görevleri destekler, güvenli, güvenilir ve sürdürülebilir AI çözümlerine odaklanır."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent, yapay zeka büyük modellerinin geliştirilmesine odaklanan bir şirkettir. Modelleri, yerel bilgi ansiklopedisi, uzun metin işleme ve üretim gibi Çince görevlerde mükemmel performans sergilemekte ve uluslararası ana akım modelleri aşmaktadır. Baichuan Intelligent ayrıca sektördeki lider çok modlu yeteneklere sahiptir ve birçok otoriter değerlendirmede mükemmel sonuçlar elde etmiştir. Modelleri, Baichuan 4, Baichuan 3 Turbo ve Baichuan 3 Turbo 128k gibi farklı uygulama senaryolarına yönelik optimize edilmiş yüksek maliyet etkinliği çözümleri sunmaktadır."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Büyük model araştırma ve geliştirme araç zincirine adanmış bir açık kaynak organizasyonu. Tüm AI geliştiricilerine verimli ve kullanımı kolay bir açık kaynak platformu sunarak en son büyük model ve algoritma teknolojilerine erişimi kolaylaştırır."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI, 2020 yılında kurulmuş, önde gelen bir arama AI şirketidir. Arama tabanlı platformumuz, işletmelerin güvenilir ve yüksek kaliteli üretken AI ve çok modlu arama uygulamaları geliştirmelerine yardımcı olan vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içerir."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio, bilgisayarınızda LLM'ler geliştirmek ve denemeler yapmak için bir masaüstü uygulamasıdır."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI, çeşitli büyük dil modelleri ve yapay zeka görüntü üretimi API hizmetleri sunan bir platformdur. Esnek, güvenilir ve maliyet etkin bir yapıya sahiptir. Llama3, Mistral gibi en son açık kaynak modelleri desteklemekte ve üretken yapay zeka uygulama geliştirme için kapsamlı, kullanıcı dostu ve otomatik ölçeklenebilir API çözümleri sunmaktadır. Bu, yapay zeka girişimlerinin hızlı gelişimi için uygundur."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™, bulut, veri merkezi, RTX™ AI kişisel bilgisayarlar ve iş istasyonlarında önceden eğitilmiş ve özelleştirilmiş AI modellerinin dağıtımını destekleyen, kendi kendine barındırılan GPU hızlandırmalı çıkarım mikro hizmetleri için konteynerler sunar."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Ollama'nın sunduğu modeller, kod üretimi, matematiksel işlemler, çok dilli işleme ve diyalog etkileşimi gibi alanları kapsamaktadır. Kurumsal düzeyde ve yerelleştirilmiş dağıtım için çeşitli ihtiyaçları desteklemektedir."
|
73
82
|
},
|
@@ -107,6 +116,9 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage, çeşitli ticari ihtiyaçlar için yapay zeka modelleri geliştirmeye odaklanmaktadır. Solar LLM ve belge AI gibi modeller, insan yapımı genel zeka (AGI) hedeflemektedir. Chat API aracılığıyla basit diyalog ajanları oluşturmakta ve işlev çağrısı, çeviri, gömme ve belirli alan uygulamalarını desteklemektedir."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM, LLM çıkarımı ve hizmetleri için hızlı ve kullanımı kolay bir kütüphanedir."
|
121
|
+
},
|
110
122
|
"wenxin": {
|
111
123
|
"description": "Kurumsal düzeyde tek duraklı büyük model ve AI yerel uygulama geliştirme ve hizmet platformu, en kapsamlı ve kullanımı kolay üretken yapay zeka modeli geliştirme, uygulama geliştirme için tam süreç araç zinciri sunar."
|
112
124
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Phiên bản API của Azure, theo định dạng YYYY-MM-DD, tham khảo [phiên bản mới nhất](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Lấy danh sách",
|
26
|
+
"title": "Phiên bản API Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Tìm điểm kết thúc suy diễn mô hình Azure AI từ tổng quan dự án Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Điểm kết thúc Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Tìm khóa API từ tổng quan dự án Azure AI",
|
36
|
+
"placeholder": "Khóa Azure",
|
37
|
+
"title": "Khóa"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Nhập AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Địa chỉ proxy"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Vui lòng chọn loại SDK",
|
101
120
|
"title": "Định dạng yêu cầu"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Vui lòng nhập tên triển khai mô hình trong Azure",
|
211
230
|
"title": "Tên triển khai mô hình"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Trường này sẽ được sử dụng làm ID mô hình khi gửi yêu cầu",
|
234
|
+
"placeholder": "Vui lòng nhập tên hoặc ID thực tế của mô hình đã triển khai",
|
235
|
+
"title": "Tên triển khai mô hình"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Vui lòng nhập tên hiển thị của mô hình, ví dụ ChatGPT, GPT-4, v.v.",
|
215
239
|
"title": "Tên hiển thị mô hình"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "LLM hiệu quả tiên tiến, xuất sắc trong suy luận, toán học và lập trình."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 là một mô hình ngôn ngữ hình ảnh hỗn hợp chuyên gia (MoE) được phát triển dựa trên DeepSeekMoE-27B, sử dụng kiến trúc MoE với kích hoạt thưa, đạt được hiệu suất xuất sắc chỉ với 4.5B tham số được kích hoạt. Mô hình này thể hiện xuất sắc trong nhiều nhiệm vụ như hỏi đáp hình ảnh, nhận diện ký tự quang học, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro kết hợp công nghệ tối ưu hóa mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Mô hình tinh chỉnh hướng dẫn nhẹ của Google"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ ứng dụng nhỏ đến xử lý dữ liệu phức tạp."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 là một loạt mô hình văn bản mã nguồn mở nhẹ của Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, dẫn đầu trong số các mô hình mã nguồn mở cùng cấp. Mặc định chỉ đến mô hình InternLM3 mới nhất mà chúng tôi đã phát hành."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Tìm kiếm sâu kết hợp tìm kiếm trên mạng, đọc và suy luận, có thể thực hiện điều tra toàn diện. Bạn có thể coi nó như một đại lý, nhận nhiệm vụ nghiên cứu của bạn - nó sẽ thực hiện tìm kiếm rộng rãi và qua nhiều lần lặp lại trước khi đưa ra câu trả lời. Quá trình này liên quan đến nghiên cứu liên tục, suy luận và giải quyết vấn đề từ nhiều góc độ. Điều này khác biệt hoàn toàn với việc tạo ra câu trả lời trực tiếp từ dữ liệu đã được huấn luyện trước của các mô hình lớn tiêu chuẩn và các hệ thống RAG truyền thống dựa vào tìm kiếm bề mặt một lần."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "Mô hình Llama 3.1 Turbo 405B cung cấp hỗ trợ ngữ cảnh dung lượng lớn cho xử lý dữ liệu lớn, thể hiện xuất sắc trong các ứng dụng trí tuệ nhân tạo quy mô lớn."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 là mô hình hàng đầu do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B cung cấp hỗ trợ đối thoại hiệu quả đa ngôn ngữ."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "LLM cao cấp, hỗ trợ tạo dữ liệu tổng hợp, chưng cất kiến thức và suy luận, phù hợp cho chatbot, lập trình và các nhiệm vụ chuyên biệt."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Tăng cường cuộc đối thoại phức tạp, có khả năng hiểu ngữ cảnh xuất sắc, suy luận và sinh văn bản."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Mô hình tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Mô hình LLM tiên tiến, xuất sắc trong suy luận, toán học, kiến thức chung và gọi hàm."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B là một mô hình ngôn ngữ quy mô lớn tùy chỉnh bởi NVIDIA, nhằm nâng cao mức độ hỗ trợ của phản hồi do LLM tạo ra đối với các truy vấn của người dùng. Mô hình này đã thể hiện xuất sắc trong các bài kiểm tra chuẩn như Arena Hard, AlpacaEval 2 LC và GPT-4-Turbo MT-Bench, đứng đầu trong cả ba bài kiểm tra tự động cho đến ngày 1 tháng 10 năm 2024. Mô hình sử dụng RLHF (đặc biệt là REINFORCE), Llama-3.1-Nemotron-70B-Reward và HelpSteer2-Preference để đào tạo trên cơ sở mô hình Llama-3.1-70B-Instruct."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Mô hình ngôn ngữ độc đáo, cung cấp độ chính xác và hiệu suất không thể sánh kịp."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B là mô hình ngôn ngữ lớn tùy chỉnh của NVIDIA, nhằm nâng cao tính hữu ích của các phản hồi do LLM tạo ra."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Tập trung vào suy diễn nâng cao và giải quyết các vấn đề phức tạp, bao gồm các nhiệm vụ toán học và khoa học. Rất phù hợp cho các ứng dụng cần hiểu biết sâu sắc về ngữ cảnh và quy trình làm việc đại diện."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và sinh mạnh mẽ hơn."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM hướng đến tiếng Trung và tiếng Anh, tập trung vào ngôn ngữ, lập trình, toán học, suy luận và các lĩnh vực khác."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "LLM cao cấp, hỗ trợ tạo mã, suy luận và sửa chữa, bao gồm các ngôn ngữ lập trình phổ biến."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Mô hình mã mạnh mẽ cỡ trung, hỗ trợ độ dài ngữ cảnh 32K, xuất sắc trong lập trình đa ngôn ngữ."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure cung cấp nhiều mô hình AI tiên tiến, bao gồm GPT-3.5 và dòng GPT-4 mới nhất, hỗ trợ nhiều loại dữ liệu và nhiệm vụ phức tạp, cam kết cung cấp các giải pháp AI an toàn, đáng tin cậy và bền vững."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure cung cấp nhiều mô hình AI tiên tiến, bao gồm GPT-3.5 và dòng GPT-4 mới nhất, hỗ trợ nhiều loại dữ liệu và nhiệm vụ phức tạp, cam kết cung cấp các giải pháp AI an toàn, đáng tin cậy và bền vững."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligent là công ty tập trung vào nghiên cứu phát triển mô hình ngôn ngữ lớn AI, mô hình của họ thể hiện xuất sắc trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, xử lý văn bản dài và sáng tác, vượt trội hơn so với các mô hình chính thống quốc tế. Baichuan Intelligent còn có khả năng đa phương thức hàng đầu trong ngành, thể hiện xuất sắc trong nhiều bài kiểm tra uy tín. Các mô hình của họ bao gồm Baichuan 4, Baichuan 3 Turbo và Baichuan 3 Turbo 128k, được tối ưu hóa cho các tình huống ứng dụng khác nhau, cung cấp giải pháp hiệu quả về chi phí."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Tổ chức mã nguồn mở chuyên nghiên cứu và phát triển công cụ cho mô hình lớn. Cung cấp nền tảng mã nguồn mở hiệu quả, dễ sử dụng cho tất cả các nhà phát triển AI, giúp tiếp cận công nghệ mô hình lớn và thuật toán tiên tiến nhất."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI được thành lập vào năm 2020, là một công ty hàng đầu trong lĩnh vực AI tìm kiếm. Nền tảng tìm kiếm của chúng tôi bao gồm các mô hình vector, bộ tái sắp xếp và các mô hình ngôn ngữ nhỏ, giúp các doanh nghiệp xây dựng các ứng dụng tìm kiếm sinh tạo và đa phương tiện đáng tin cậy và chất lượng cao."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio là một ứng dụng máy tính để phát triển và thử nghiệm các LLM trên máy tính của bạn."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI là một nền tảng cung cấp dịch vụ API cho nhiều mô hình ngôn ngữ lớn và tạo hình ảnh AI, linh hoạt, đáng tin cậy và hiệu quả về chi phí. Nó hỗ trợ các mô hình mã nguồn mở mới nhất như Llama3, Mistral, và cung cấp giải pháp API toàn diện, thân thiện với người dùng và tự động mở rộng cho phát triển ứng dụng AI, phù hợp cho sự phát triển nhanh chóng của các công ty khởi nghiệp AI."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ cung cấp các container có thể được sử dụng để tự lưu trữ các dịch vụ vi mô suy diễn GPU tăng tốc, hỗ trợ triển khai các mô hình AI đã được huấn luyện trước và tùy chỉnh trên đám mây, trung tâm dữ liệu, máy tính cá nhân RTX™ AI và trạm làm việc."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Mô hình do Ollama cung cấp bao quát rộng rãi các lĩnh vực như tạo mã, tính toán toán học, xử lý đa ngôn ngữ và tương tác đối thoại, hỗ trợ nhu cầu đa dạng cho triển khai doanh nghiệp và địa phương."
|
73
82
|
},
|
@@ -107,6 +116,9 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage tập trung vào việc phát triển các mô hình AI cho nhiều nhu cầu thương mại khác nhau, bao gồm Solar LLM và AI tài liệu, nhằm đạt được trí thông minh nhân tạo tổng quát (AGI) cho công việc. Tạo ra các đại lý đối thoại đơn giản thông qua Chat API, và hỗ trợ gọi chức năng, dịch thuật, nhúng và ứng dụng trong các lĩnh vực cụ thể."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM là một thư viện nhanh chóng và dễ sử dụng cho suy diễn và dịch vụ LLM."
|
121
|
+
},
|
110
122
|
"wenxin": {
|
111
123
|
"description": "Nền tảng phát triển và dịch vụ ứng dụng AI gốc với mô hình lớn một cửa dành cho doanh nghiệp, cung cấp chuỗi công cụ toàn diện và dễ sử dụng cho phát triển mô hình trí tuệ nhân tạo sinh sinh và phát triển ứng dụng."
|
112
124
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Azure 的 API 版本,遵循 YYYY-MM-DD 格式,查阅[最新版本](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "获取列表",
|
26
|
+
"title": "Azure API Version"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "从 Azure AI 项目概述找到 Azure AI 模型推理终结点",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Azure AI 终结点"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "从 Azure AI 项目概述找到 API 密钥",
|
36
|
+
"placeholder": "Azure 密钥",
|
37
|
+
"title": "密钥"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "填入 AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "代理地址"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "请选择 SDK 类型",
|
101
120
|
"title": "请求格式"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "请输入 Azure 中的模型部署名称",
|
211
230
|
"title": "模型部署名称"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "发送请求时会将该字段作为模型 ID",
|
234
|
+
"placeholder": "请输入模型实际部署的名称或 id",
|
235
|
+
"title": "模型部署名称"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "请输入模型的展示名称,例如 ChatGPT、GPT-4 等",
|
215
239
|
"title": "模型展示名称"
|