@lobehub/chat 1.57.0 → 1.58.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +1 -0
- package/locales/ar/modelProvider.json +24 -0
- package/locales/ar/models.json +60 -0
- package/locales/ar/providers.json +12 -0
- package/locales/bg-BG/modelProvider.json +24 -0
- package/locales/bg-BG/models.json +60 -0
- package/locales/bg-BG/providers.json +12 -0
- package/locales/de-DE/modelProvider.json +24 -0
- package/locales/de-DE/models.json +60 -0
- package/locales/de-DE/providers.json +12 -0
- package/locales/en-US/modelProvider.json +24 -0
- package/locales/en-US/models.json +60 -0
- package/locales/en-US/providers.json +12 -0
- package/locales/es-ES/modelProvider.json +24 -0
- package/locales/es-ES/models.json +60 -0
- package/locales/es-ES/providers.json +12 -0
- package/locales/fa-IR/modelProvider.json +30 -0
- package/locales/fa-IR/models.json +60 -0
- package/locales/fa-IR/providers.json +12 -0
- package/locales/fr-FR/modelProvider.json +24 -0
- package/locales/fr-FR/models.json +60 -0
- package/locales/fr-FR/providers.json +12 -0
- package/locales/it-IT/modelProvider.json +24 -0
- package/locales/it-IT/models.json +60 -0
- package/locales/it-IT/providers.json +12 -0
- package/locales/ja-JP/modelProvider.json +24 -0
- package/locales/ja-JP/models.json +60 -0
- package/locales/ja-JP/providers.json +12 -0
- package/locales/ko-KR/modelProvider.json +24 -0
- package/locales/ko-KR/models.json +60 -0
- package/locales/ko-KR/providers.json +12 -0
- package/locales/nl-NL/modelProvider.json +24 -0
- package/locales/nl-NL/models.json +60 -0
- package/locales/nl-NL/providers.json +12 -0
- package/locales/pl-PL/modelProvider.json +24 -0
- package/locales/pl-PL/models.json +60 -0
- package/locales/pl-PL/providers.json +12 -0
- package/locales/pt-BR/modelProvider.json +24 -0
- package/locales/pt-BR/models.json +60 -0
- package/locales/pt-BR/providers.json +12 -0
- package/locales/ru-RU/modelProvider.json +24 -0
- package/locales/ru-RU/models.json +60 -0
- package/locales/ru-RU/providers.json +12 -0
- package/locales/tr-TR/modelProvider.json +30 -0
- package/locales/tr-TR/models.json +60 -0
- package/locales/tr-TR/providers.json +12 -0
- package/locales/vi-VN/modelProvider.json +24 -0
- package/locales/vi-VN/models.json +60 -0
- package/locales/vi-VN/providers.json +12 -0
- package/locales/zh-CN/modelProvider.json +24 -0
- package/locales/zh-CN/models.json +1112 -1052
- package/locales/zh-CN/providers.json +80 -68
- package/locales/zh-TW/modelProvider.json +24 -0
- package/locales/zh-TW/models.json +60 -0
- package/locales/zh-TW/providers.json +12 -0
- package/package.json +4 -2
- package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/File.tsx +1 -1
- package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/index.tsx +19 -9
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/index.tsx +1 -2
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Main.tsx +15 -1
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Mobile/ChatHeader/index.tsx +0 -2
- package/src/app/[variants]/(main)/chat/(workspace)/features/AgentSettings/index.tsx +1 -1
- package/src/app/[variants]/(main)/chat/settings/page.tsx +95 -5
- package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
- package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
- package/src/config/aiModels/azureai.ts +18 -0
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/modelProviders/azure.ts +2 -1
- package/src/config/modelProviders/azureai.ts +19 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/database/server/models/aiProvider.ts +2 -0
- package/src/features/AgentSetting/AgentMeta/index.tsx +19 -9
- package/src/features/AgentSetting/AgentPrompt/index.tsx +32 -2
- package/src/features/AgentSetting/AgentSettings.tsx +4 -5
- package/src/features/AgentSetting/AgentSettingsProvider.tsx +17 -0
- package/src/features/AgentSetting/StoreUpdater.tsx +5 -2
- package/src/features/AgentSetting/index.tsx +1 -1
- package/src/features/AgentSetting/store/initialState.ts +2 -1
- package/src/hooks/useInterceptingRoutes.test.ts +1 -1
- package/src/hooks/useInterceptingRoutes.ts +1 -1
- package/src/layout/GlobalProvider/StoreInitialization.tsx +1 -1
- package/src/libs/agent-runtime/AgentRuntime.ts +13 -6
- package/src/libs/agent-runtime/azureai/index.ts +109 -0
- package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
- package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
- package/src/libs/agent-runtime/index.ts +1 -0
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
- package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
- package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
- package/src/locales/default/modelProvider.ts +25 -0
- package/src/server/modules/AgentRuntime/index.ts +8 -1
- package/src/services/chat.ts +12 -3
- package/src/store/agent/slices/chat/action.test.ts +3 -3
- package/src/store/agent/slices/chat/action.ts +2 -5
- package/src/types/aiProvider.ts +1 -0
- package/src/types/user/settings/keyVaults.ts +1 -0
- package/src/app/[variants]/(main)/chat/settings/features/EditPage.tsx +0 -45
- package/src/features/AgentSetting/AgentSettingsStore.tsx +0 -14
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/Image.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/index.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/FileItem/style.ts +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Files/index.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/InputArea/Container.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/InputArea/index.tsx +0 -0
- /package/src/{features → app/[variants]/(main)/chat/(workspace)/@conversation/features}/ChatInput/Mobile/Send.tsx +0 -0
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
## [Version 1.58.0](https://github.com/lobehub/lobe-chat/compare/v1.57.1...v1.58.0)
|
6
|
+
|
7
|
+
<sup>Released on **2025-02-16**</sup>
|
8
|
+
|
9
|
+
#### ✨ Features
|
10
|
+
|
11
|
+
- **misc**: Add Azure AI as new Provider.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's improved
|
19
|
+
|
20
|
+
- **misc**: Add Azure AI as new Provider, closes [#6214](https://github.com/lobehub/lobe-chat/issues/6214) ([30e010f](https://github.com/lobehub/lobe-chat/commit/30e010f))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.57.1](https://github.com/lobehub/lobe-chat/compare/v1.57.0...v1.57.1)
|
31
|
+
|
32
|
+
<sup>Released on **2025-02-16**</sup>
|
33
|
+
|
34
|
+
#### 💄 Styles
|
35
|
+
|
36
|
+
- **misc**: Fix mobile agent settings not show correctly.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### Styles
|
44
|
+
|
45
|
+
- **misc**: Fix mobile agent settings not show correctly, closes [#6203](https://github.com/lobehub/lobe-chat/issues/6203) ([0285d95](https://github.com/lobehub/lobe-chat/commit/0285d95))
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
## [Version 1.57.0](https://github.com/lobehub/lobe-chat/compare/v1.56.5...v1.57.0)
|
6
56
|
|
7
57
|
<sup>Released on **2025-02-16**</sup>
|
package/changelog/v1.json
CHANGED
@@ -1,4 +1,22 @@
|
|
1
1
|
[
|
2
|
+
{
|
3
|
+
"children": {
|
4
|
+
"features": [
|
5
|
+
"Add Azure AI as new Provider."
|
6
|
+
]
|
7
|
+
},
|
8
|
+
"date": "2025-02-16",
|
9
|
+
"version": "1.58.0"
|
10
|
+
},
|
11
|
+
{
|
12
|
+
"children": {
|
13
|
+
"improvements": [
|
14
|
+
"Fix mobile agent settings not show correctly."
|
15
|
+
]
|
16
|
+
},
|
17
|
+
"date": "2025-02-16",
|
18
|
+
"version": "1.57.1"
|
19
|
+
},
|
2
20
|
{
|
3
21
|
"children": {
|
4
22
|
"features": [
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "مفتاح API"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "إصدار واجهة برمجة التطبيقات Azure، يتبع تنسيق YYYY-MM-DD، راجع [الإصدار الأحدث](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "الحصول على القائمة",
|
26
|
+
"title": "إصدار واجهة برمجة التطبيقات Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "ابحث عن نقطة نهاية استدلال نموذج Azure AI من نظرة عامة على مشروع Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "نقطة نهاية Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "ابحث عن مفتاح واجهة برمجة التطبيقات من نظرة عامة على مشروع Azure AI",
|
36
|
+
"placeholder": "مفتاح Azure",
|
37
|
+
"title": "المفتاح"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "أدخل AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "عنوان الوكيل"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "يرجى اختيار نوع SDK",
|
101
120
|
"title": "تنسيق الطلب"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "يرجى إدخال اسم نشر النموذج في Azure",
|
211
230
|
"title": "اسم نشر النموذج"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "سيتم استخدام هذا الحقل كمعرف نموذج عند إرسال الطلب",
|
234
|
+
"placeholder": "يرجى إدخال اسم أو معرف النشر الفعلي للنموذج",
|
235
|
+
"title": "اسم نشر النموذج"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "يرجى إدخال اسم العرض للنموذج، مثل ChatGPT، GPT-4، إلخ",
|
215
239
|
"title": "اسم عرض النموذج"
|
package/locales/ar/models.json
CHANGED
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B هو نموذج متقدم تم تدريبه للحوار المعقد."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "نموذج لغوي متقدم وفعال، بارع في الاستدلال، والرياضيات، والبرمجة."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 هو نموذج لغوي بصري مختلط الخبراء (MoE) تم تطويره بناءً على DeepSeekMoE-27B، يستخدم بنية MoE ذات تفعيل نادر، محققًا أداءً ممتازًا مع تفعيل 4.5 مليار معلمة فقط. يقدم هذا النموذج أداءً ممتازًا في مهام مثل الأسئلة البصرية، التعرف الضوئي على الأحرف، فهم الوثائق/الجداول/الرسوم البيانية، وتحديد المواقع البصرية."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بقدرات الحوار العامة لنموذج الدردشة الأصلي وقدرات معالجة الأكواد القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "يجمع Gemini 1.5 Pro بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط بشكل أكثر كفاءة."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "نموذج تحسين التعليمات الخفيف من Google"
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 هو سلسلة نماذج نصية مفتوحة المصدر خفيفة الوزن من Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تتصدر نماذج المصدر المفتوح من نفس الفئة. تشير بشكل افتراضي إلى أحدث نماذج سلسلة InternLM3 التي تم إصدارها."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "البحث العميق يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال، مما يتيح إجراء تحقيق شامل. يمكنك اعتباره وكيلًا يتولى مهام البحث الخاصة بك - حيث يقوم بإجراء بحث واسع النطاق ويخضع لعدة تكرارات قبل تقديم الإجابة. تتضمن هذه العملية بحثًا مستمرًا، واستدلالًا، وحل المشكلات من زوايا متعددة. وهذا يختلف اختلافًا جوهريًا عن النماذج الكبيرة القياسية التي تولد الإجابات مباشرة من البيانات المدربة مسبقًا، وكذلك عن أنظمة RAG التقليدية التي تعتمد على البحث السطحي لمرة واحدة."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM هو نموذج لغوي تجريبي محدد المهام، تم تدريبه ليتماشى مع مبادئ علوم التعلم، يمكنه اتباع التعليمات النظامية في سيناريوهات التعليم والتعلم، ويعمل كمدرب خبير."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "نموذج Llama 3.1 Turbo 405B يوفر دعمًا كبيرًا للسياق لمعالجة البيانات الكبيرة، ويظهر أداءً بارزًا في تطبيقات الذكاء الاصطناعي على نطاق واسع."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 هو نموذج رائد أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات المحادثات المعقدة، والترجمة متعددة اللغات، وتحليل البيانات."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B يوفر دعمًا فعالًا للحوار متعدد اللغات."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي للأجهزة ذات القدرة الحاسوبية والموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "نموذج لغوي متقدم، يدعم توليد البيانات الاصطناعية، وتقطير المعرفة، والاستدلال، مناسب للدردشة، والبرمجة، والمهام الخاصة."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "يمكنه تمكين المحادثات المعقدة، ويتميز بفهم سياقي ممتاز، وقدرات استدلال، وقدرة على توليد النصوص."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "نموذج متقدم من الطراز الأول، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "نموذج متقدم للرؤية واللغة، بارع في إجراء استدلال عالي الجودة من الصور."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "نموذج لغوي صغير متقدم، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "نموذج لغوي صغير متقدم، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "نموذج متقدم للرؤية واللغة، بارع في إجراء استدلال عالي الجودة من الصور."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "نموذج لغوي متقدم، بارع في الاستدلال، والرياضيات، والمعرفة العامة، واستدعاء الدوال."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B هو نموذج لغوي كبير مخصص من NVIDIA، يهدف إلى تحسين استجابة LLM لمساعدة استفسارات المستخدمين. لقد أظهر النموذج أداءً ممتازًا في اختبارات المعايير مثل Arena Hard وAlpacaEval 2 LC وGPT-4-Turbo MT-Bench، حيث احتل المرتبة الأولى في جميع اختبارات المحاذاة التلقائية الثلاثة حتى 1 أكتوبر 2024. تم تدريب النموذج باستخدام RLHF (خاصة REINFORCE) وLlama-3.1-Nemotron-70B-Reward وHelpSteer2-Preference على أساس نموذج Llama-3.1-70B-Instruct."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "نموذج لغوي فريد، يقدم دقة وأداء لا مثيل لهما."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B هو نموذج لغوي كبير مخصص من NVIDIA، مصمم لتحسين فائدة الاستجابات التي يولدها LLM."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "يركز على الاستدلال المتقدم وحل المشكلات المعقدة، بما في ذلك المهام الرياضية والعلمية. مثالي للتطبيقات التي تتطلب فهمًا عميقًا للسياق وإدارة سير العمل."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات فهم وتوليد أقوى."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "نموذج لغوي موجه للغة الصينية والإنجليزية، يستهدف مجالات اللغة، والبرمجة، والرياضيات، والاستدلال، وغيرها."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "نموذج لغوي متقدم، يدعم توليد الشيفرة، والاستدلال، والإصلاح، ويغطي لغات البرمجة الرئيسية."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "نموذج قوي للبرمجة متوسطة الحجم، يدعم طول سياق يصل إلى 32K، بارع في البرمجة متعددة اللغات."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "توفر Azure مجموعة متنوعة من نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك GPT-3.5 وأحدث سلسلة GPT-4، تدعم أنواع بيانات متعددة ومهام معقدة، وتلتزم بحلول ذكاء اصطناعي آمنة وموثوقة ومستدامة."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "توفر Azure مجموعة متنوعة من نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك GPT-3.5 وأحدث سلسلة GPT-4، تدعم أنواع البيانات المتعددة والمهام المعقدة، وتهدف إلى تقديم حلول ذكاء اصطناعي آمنة وموثوقة ومستدامة."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligence هي شركة تركز على تطوير نماذج الذكاء الاصطناعي الكبيرة، حيث تظهر نماذجها أداءً ممتازًا في المهام الصينية مثل الموسوعات المعرفية ومعالجة النصوص الطويلة والإبداع. تتفوق على النماذج الرئيسية الأجنبية. كما تتمتع Baichuan Intelligence بقدرات متعددة الوسائط رائدة في الصناعة، وقد أظهرت أداءً ممتازًا في العديد من التقييمات الموثوقة. تشمل نماذجها Baichuan 4 وBaichuan 3 Turbo وBaichuan 3 Turbo 128k، وكل منها مُحسّن لمشاهد تطبيق مختلفة، مما يوفر حلولًا فعالة من حيث التكلفة."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "منظمة مفتوحة المصدر مكرسة لأبحاث وتطوير أدوات النماذج الكبيرة. توفر منصة مفتوحة المصدر فعالة وسهلة الاستخدام لجميع مطوري الذكاء الاصطناعي، مما يجعل أحدث تقنيات النماذج الكبيرة والخوارزميات في متناول اليد."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال الذكاء الاصطناعي للبحث. تحتوي منصتنا الأساسية للبحث على نماذج متجهة، ومعيدي ترتيب، ونماذج لغوية صغيرة، لمساعدة الشركات في بناء تطبيقات بحث موثوقة وعالية الجودة تعتمد على الذكاء الاصطناعي التوليدي ومتعددة الوسائط."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة نماذج اللغة الكبيرة (LLMs) على جهاز الكمبيوتر الخاص بك."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI هي منصة تقدم خدمات API لمجموعة متنوعة من نماذج اللغة الكبيرة وتوليد الصور بالذكاء الاصطناعي، مرنة وموثوقة وفعالة من حيث التكلفة. تدعم أحدث النماذج مفتوحة المصدر مثل Llama3 وMistral، وتوفر حلول API شاملة وسهلة الاستخدام وقابلة للتوسع تلقائيًا لتطوير تطبيقات الذكاء الاصطناعي، مما يجعلها مناسبة لنمو الشركات الناشئة في مجال الذكاء الاصطناعي."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "تقدم NVIDIA NIM™ حاويات يمكن استخدامها لاستضافة خدمات استدلال معززة بواسطة GPU، تدعم نشر نماذج الذكاء الاصطناعي المدربة مسبقًا والمخصصة على السحابة ومراكز البيانات وأجهزة الكمبيوتر الشخصية RTX™ ومحطات العمل."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "تغطي نماذج Ollama مجموعة واسعة من مجالات توليد الشيفرة، والعمليات الرياضية، ومعالجة اللغات المتعددة، والتفاعل الحواري، وتدعم احتياجات النشر على مستوى المؤسسات والتخصيص المحلي."
|
73
82
|
},
|
@@ -107,6 +116,9 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "تتخصص Upstage في تطوير نماذج الذكاء الاصطناعي لتلبية احتياجات الأعمال المتنوعة، بما في ذلك Solar LLM وDocument AI، بهدف تحقيق الذكاء الاصطناعي العام (AGI) القائم على العمل. من خلال واجهة Chat API، يمكن إنشاء وكلاء حوار بسيطين، وتدعم استدعاء الوظائف، والترجمة، والتضمين، وتطبيقات المجالات المحددة."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM هو مكتبة سريعة وسهلة الاستخدام لاستدلال LLM والخدمات."
|
121
|
+
},
|
110
122
|
"wenxin": {
|
111
123
|
"description": "منصة تطوير وخدمات النماذج الكبيرة والتطبيقات الأصلية للذكاء الاصطناعي على مستوى المؤسسات، تقدم مجموعة شاملة وسهلة الاستخدام من أدوات تطوير النماذج الذكية التوليدية وأدوات تطوير التطبيقات على مدار العملية بأكملها."
|
112
124
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API ключ"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "Версия на API на Azure, следваща формата YYYY-MM-DD, вижте [най-новата версия](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Вземи списък",
|
26
|
+
"title": "Версия на API на Azure"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Намерете крайна точка за инференция на моделите на Azure AI в прегледа на проекта на Azure AI",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Крайна точка на Azure AI"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Намерете API ключа в прегледа на проекта на Azure AI",
|
36
|
+
"placeholder": "Ключ на Azure",
|
37
|
+
"title": "Ключ"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Въведете AWS Access Key Id",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Адрес на прокси"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Моля, изберете тип SDK",
|
101
120
|
"title": "Формат на запитването"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Моля, въведете името на модела за разполагане в Azure",
|
211
230
|
"title": "Име на разполагане на модела"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Това поле ще бъде използвано като ID на модела при изпращане на заявката",
|
234
|
+
"placeholder": "Моля, въведете действителното име или ID на разположението на модела",
|
235
|
+
"title": "Име на разположение на модела"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Моля, въведете показваното име на модела, например ChatGPT, GPT-4 и др.",
|
215
239
|
"title": "Показвано име на модела"
|
@@ -578,6 +578,9 @@
|
|
578
578
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
579
579
|
"description": "DeepSeek 67B е напреднал модел, обучен за диалози с висока сложност."
|
580
580
|
},
|
581
|
+
"deepseek-ai/deepseek-r1": {
|
582
|
+
"description": "Най-съвременен ефективен LLM, специализиран в разсъждения, математика и програмиране."
|
583
|
+
},
|
581
584
|
"deepseek-ai/deepseek-vl2": {
|
582
585
|
"description": "DeepSeek-VL2 е визуален езиков модел, разработен на базата на DeepSeekMoE-27B, който използва архитектура на смесени експерти (MoE) с рядка активация, постигайки изключителна производителност с активирани само 4.5B параметри. Моделът показва отлични резултати в множество задачи, включително визуални въпроси и отговори, оптично разпознаване на символи, разбиране на документи/таблици/графики и визуална локализация."
|
583
586
|
},
|
@@ -629,6 +632,12 @@
|
|
629
632
|
"deepseek/deepseek-chat": {
|
630
633
|
"description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съобразява с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в задачи по писане, следване на инструкции и много други."
|
631
634
|
},
|
635
|
+
"deepseek/deepseek-r1": {
|
636
|
+
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
|
637
|
+
},
|
638
|
+
"deepseek/deepseek-r1:free": {
|
639
|
+
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
|
640
|
+
},
|
632
641
|
"emohaa": {
|
633
642
|
"description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми."
|
634
643
|
},
|
@@ -821,12 +830,18 @@
|
|
821
830
|
"google/gemini-pro-1.5": {
|
822
831
|
"description": "Gemini 1.5 Pro комбинира най-новите оптимизационни технологии, предоставяйки по-ефективна обработка на мултимодални данни."
|
823
832
|
},
|
833
|
+
"google/gemma-2-27b": {
|
834
|
+
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки приложения до сложна обработка на данни."
|
835
|
+
},
|
824
836
|
"google/gemma-2-27b-it": {
|
825
837
|
"description": "Gemma 2 продължава концепцията за лекота и ефективност."
|
826
838
|
},
|
827
839
|
"google/gemma-2-2b-it": {
|
828
840
|
"description": "Лек модел за настройка на инструкции от Google."
|
829
841
|
},
|
842
|
+
"google/gemma-2-9b": {
|
843
|
+
"description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки приложения до сложна обработка на данни."
|
844
|
+
},
|
830
845
|
"google/gemma-2-9b-it": {
|
831
846
|
"description": "Gemma 2 е серия от леки отворени текстови модели на Google."
|
832
847
|
},
|
@@ -998,6 +1013,9 @@
|
|
998
1013
|
"internlm3-latest": {
|
999
1014
|
"description": "Нашата най-нова серия модели с изключителна производителност на разсъжденията, водеща в категорията на отворените модели. По подразбиране сочи към най-ново публикуваната серия модели InternLM3."
|
1000
1015
|
},
|
1016
|
+
"jina-deepsearch-v1": {
|
1017
|
+
"description": "Дълбокото търсене комбинира интернет търсене, четене и разсъждение, за да извърши обширно разследване. Можете да го разглеждате като агент, който приема вашата изследователска задача - той ще извърши широко търсене и ще премине през множество итерации, преди да предостави отговор. Този процес включва непрекъснато изследване, разсъждение и решаване на проблеми от различни ъгли. Това е коренно различно от стандартните големи модели, които генерират отговори директно от предварително обучени данни, и от традиционните RAG системи, които разчитат на еднократни повърхностни търсения."
|
1018
|
+
},
|
1001
1019
|
"learnlm-1.5-pro-experimental": {
|
1002
1020
|
"description": "LearnLM е експериментален езиков модел, специфичен за задачи, обучен да отговаря на принципите на научното обучение, способен да следва системни инструкции в учебни и обучителни сценарии, да действа като експертен ментор и др."
|
1003
1021
|
},
|
@@ -1139,6 +1157,9 @@
|
|
1139
1157
|
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
|
1140
1158
|
"description": "405B Llama 3.1 Turbo моделът предлага огромна контекстова поддръжка за обработка на големи данни, с изключителна производителност в приложения с изкуствен интелект с много голям мащаб."
|
1141
1159
|
},
|
1160
|
+
"meta-llama/Meta-Llama-3.1-70B": {
|
1161
|
+
"description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, подходящ за сложни разговори, многоезичен превод и анализ на данни."
|
1162
|
+
},
|
1142
1163
|
"meta-llama/Meta-Llama-3.1-70B-Instruct": {
|
1143
1164
|
"description": "LLaMA 3.1 70B предлага ефективна поддръжка за многоезични диалози."
|
1144
1165
|
},
|
@@ -1196,6 +1217,30 @@
|
|
1196
1217
|
"meta.llama3-8b-instruct-v1:0": {
|
1197
1218
|
"description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение."
|
1198
1219
|
},
|
1220
|
+
"meta/llama-3.1-405b-instruct": {
|
1221
|
+
"description": "Напреднал LLM, поддържащ генериране на синтетични данни, дестилация на знания и разсъждение, подходящ за чатботове, програмиране и специфични задачи."
|
1222
|
+
},
|
1223
|
+
"meta/llama-3.1-70b-instruct": {
|
1224
|
+
"description": "Улеснява сложни разговори, с изключителни способности за разбиране на контекста, разсъждение и генериране на текст."
|
1225
|
+
},
|
1226
|
+
"meta/llama-3.1-8b-instruct": {
|
1227
|
+
"description": "Напреднал, водещ модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
|
1228
|
+
},
|
1229
|
+
"meta/llama-3.2-11b-vision-instruct": {
|
1230
|
+
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
|
1231
|
+
},
|
1232
|
+
"meta/llama-3.2-1b-instruct": {
|
1233
|
+
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
|
1234
|
+
},
|
1235
|
+
"meta/llama-3.2-3b-instruct": {
|
1236
|
+
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
|
1237
|
+
},
|
1238
|
+
"meta/llama-3.2-90b-vision-instruct": {
|
1239
|
+
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
|
1240
|
+
},
|
1241
|
+
"meta/llama-3.3-70b-instruct": {
|
1242
|
+
"description": "Напреднал LLM, специализиран в разсъждения, математика, общи познания и извикване на функции."
|
1243
|
+
},
|
1199
1244
|
"microsoft/WizardLM-2-8x22B": {
|
1200
1245
|
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който показва особени способности в сложни разговори, многоезичност, разсъждения и интелигентни асистенти."
|
1201
1246
|
},
|
@@ -1292,6 +1337,12 @@
|
|
1292
1337
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
|
1293
1338
|
"description": "Llama 3.1 Nemotron 70B е голям езиков модел, персонализиран от NVIDIA, предназначен да увеличи полезността на отговорите, генерирани от LLM на потребителските запитвания. Моделът показва отлични резултати в бенчмаркове като Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, като заема първо място в трите автоматизирани теста за подравняване към 1 октомври 2024 г. Моделът е обучен с RLHF (по-специално REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки на базата на Llama-3.1-70B-Instruct модела."
|
1294
1339
|
},
|
1340
|
+
"nvidia/llama-3.1-nemotron-51b-instruct": {
|
1341
|
+
"description": "Уникален езиков модел, предлагащ ненадмината точност и ефективност."
|
1342
|
+
},
|
1343
|
+
"nvidia/llama-3.1-nemotron-70b-instruct": {
|
1344
|
+
"description": "Llama-3.1-Nemotron-70B-Instruct е персонализиран голям езиков модел на NVIDIA, предназначен да подобри полезността на отговорите, генерирани от LLM."
|
1345
|
+
},
|
1295
1346
|
"o1": {
|
1296
1347
|
"description": "Фокусиран върху напреднали изводи и решаване на сложни проблеми, включително математически и научни задачи. Изключително подходящ за приложения, изискващи дълбочинно разбиране на контекста и управление на работни потоци."
|
1297
1348
|
},
|
@@ -1406,6 +1457,15 @@
|
|
1406
1457
|
"qwen/qwen-2-7b-instruct:free": {
|
1407
1458
|
"description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране."
|
1408
1459
|
},
|
1460
|
+
"qwen/qwen2.5-7b-instruct": {
|
1461
|
+
"description": "LLM, насочен към китайски и английски, за области като език, програмиране, математика и разсъждение."
|
1462
|
+
},
|
1463
|
+
"qwen/qwen2.5-coder-32b-instruct": {
|
1464
|
+
"description": "Напреднал LLM, поддържащ генериране на код, разсъждение и корекции, обхващащ основните програмни езици."
|
1465
|
+
},
|
1466
|
+
"qwen/qwen2.5-coder-7b-instruct": {
|
1467
|
+
"description": "Мощен среден модел за код, поддържащ 32K дължина на контекста, специализиран в многоезично програмиране."
|
1468
|
+
},
|
1409
1469
|
"qwen2": {
|
1410
1470
|
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
|
1411
1471
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"azure": {
|
12
12
|
"description": "Azure предлага разнообразие от напреднали AI модели, включително GPT-3.5 и най-новата серия GPT-4, поддържащи различни типове данни и сложни задачи, с акцент върху безопасни, надеждни и устойчиви AI решения."
|
13
13
|
},
|
14
|
+
"azureai": {
|
15
|
+
"description": "Azure предлага множество напреднали AI модели, включително GPT-3.5 и най-новата серия GPT-4, които поддържат различни типове данни и сложни задачи, ангажирани с безопасни, надеждни и устойчиви AI решения."
|
16
|
+
},
|
14
17
|
"baichuan": {
|
15
18
|
"description": "Baichuan Intelligence е компания, специализирана в разработката на големи модели за изкуствен интелект, чийто модели показват отлични резултати в китайски задачи, свързани с енциклопедии, обработка на дълги текстове и генериране на съдържание, надминавайки основните чуждестранни модели. Baichuan Intelligence също така притежава индустриално водещи мултимодални способности, показвайки отлични резултати в множество авторитетни оценки. Моделите им включват Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизирани за различни приложения, предлагащи решения с висока цена-качество."
|
16
19
|
},
|
@@ -53,6 +56,9 @@
|
|
53
56
|
"internlm": {
|
54
57
|
"description": "Отворена организация, посветена на изследването и разработването на инструменти за големи модели. Предоставя на всички AI разработчици ефективна и лесна за използване отворена платформа, която прави най-съвременните технологии и алгоритми за големи модели достъпни."
|
55
58
|
},
|
59
|
+
"jina": {
|
60
|
+
"description": "Jina AI е основана през 2020 г. и е водеща компания в областта на търсенето с AI. Нашата платформа за търсене включва векторни модели, реорганизатори и малки езикови модели, които помагат на предприятията да изградят надеждни и висококачествени генеративни AI и мултимодални приложения за търсене."
|
61
|
+
},
|
56
62
|
"lmstudio": {
|
57
63
|
"description": "LM Studio е настолно приложение за разработка и експериментиране с LLMs на вашия компютър."
|
58
64
|
},
|
@@ -68,6 +74,9 @@
|
|
68
74
|
"novita": {
|
69
75
|
"description": "Novita AI е платформа, предлагаща API услуги за множество големи езикови модели и генериране на AI изображения, гъвкава, надеждна и икономически ефективна. Поддържа най-новите отворени модели, като Llama3 и Mistral, и предлага цялостни, потребителски приятелски и автоматично разширяеми API решения за разработка на генеративни AI приложения, подходящи за бързото развитие на AI стартъпи."
|
70
76
|
},
|
77
|
+
"nvidia": {
|
78
|
+
"description": "NVIDIA NIM™ предлага контейнери, които могат да се използват за самостоятелно хоствани GPU ускорени инференционни микросервизи, поддържащи разгръщането на предварително обучени и персонализирани AI модели в облака, центрове за данни, RTX™ AI персонални компютри и работни станции."
|
79
|
+
},
|
71
80
|
"ollama": {
|
72
81
|
"description": "Моделите, предоставени от Ollama, обхващат широк спектър от области, включително генериране на код, математически операции, многоезично обработване и диалогова интеракция, отговарящи на разнообразните нужди на предприятията и локализирани внедрявания."
|
73
82
|
},
|
@@ -107,6 +116,9 @@
|
|
107
116
|
"upstage": {
|
108
117
|
"description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения."
|
109
118
|
},
|
119
|
+
"vllm": {
|
120
|
+
"description": "vLLM е бърза и лесна за използване библиотека за LLM инференция и услуги."
|
121
|
+
},
|
110
122
|
"wenxin": {
|
111
123
|
"description": "Платформа за разработка и услуги на корпоративно ниво, предлагаща цялостно решение за разработка на генеративни модели на изкуствен интелект и приложения, с най-пълния и лесен за използване инструментариум за целия процес на разработка на модели и приложения."
|
112
124
|
},
|
@@ -19,6 +19,24 @@
|
|
19
19
|
"title": "API Key"
|
20
20
|
}
|
21
21
|
},
|
22
|
+
"azureai": {
|
23
|
+
"azureApiVersion": {
|
24
|
+
"desc": "API-Version von Azure, im Format YYYY-MM-DD, siehe [aktuelle Version](https://learn.microsoft.com/de-de/azure/ai-services/openai/reference#chat-completions)",
|
25
|
+
"fetch": "Liste abrufen",
|
26
|
+
"title": "Azure API-Version"
|
27
|
+
},
|
28
|
+
"endpoint": {
|
29
|
+
"desc": "Finden Sie den Endpunkt für die Modellinferenz von Azure AI im Überblick über das Azure AI-Projekt",
|
30
|
+
"placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
|
31
|
+
"title": "Azure AI-Endpunkt"
|
32
|
+
},
|
33
|
+
"title": "Azure OpenAI",
|
34
|
+
"token": {
|
35
|
+
"desc": "Finden Sie den API-Schlüssel im Überblick über das Azure AI-Projekt",
|
36
|
+
"placeholder": "Azure-Schlüssel",
|
37
|
+
"title": "Schlüssel"
|
38
|
+
}
|
39
|
+
},
|
22
40
|
"bedrock": {
|
23
41
|
"accessKeyId": {
|
24
42
|
"desc": "Geben Sie Ihre AWS Access Key Id ein",
|
@@ -97,6 +115,7 @@
|
|
97
115
|
"title": "Proxy-Adresse"
|
98
116
|
},
|
99
117
|
"sdkType": {
|
118
|
+
"placeholder": "openai/anthropic/azureai/ollama/...",
|
100
119
|
"required": "Bitte wählen Sie den SDK-Typ aus",
|
101
120
|
"title": "Anforderungsformat"
|
102
121
|
},
|
@@ -210,6 +229,11 @@
|
|
210
229
|
"placeholder": "Bitte geben Sie den Modellbereitstellungsnamen in Azure ein",
|
211
230
|
"title": "Modellbereitstellungsname"
|
212
231
|
},
|
232
|
+
"deployName": {
|
233
|
+
"extra": "Dieses Feld wird als Modell-ID gesendet, wenn die Anfrage gesendet wird",
|
234
|
+
"placeholder": "Bitte geben Sie den tatsächlichen Namen oder die ID des bereitgestellten Modells ein",
|
235
|
+
"title": "Modellbereitstellungsname"
|
236
|
+
},
|
213
237
|
"displayName": {
|
214
238
|
"placeholder": "Bitte geben Sie den angezeigten Namen des Modells ein, z.B. ChatGPT, GPT-4 usw.",
|
215
239
|
"title": "Anzeigename des Modells"
|