@lobehub/chat 1.21.16 → 1.22.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/README.zh-CN.md +8 -6
- package/docs/usage/providers/wenxin.mdx +4 -3
- package/docs/usage/providers/wenxin.zh-CN.mdx +4 -3
- package/locales/ar/error.json +1 -0
- package/locales/ar/modelProvider.json +7 -0
- package/locales/ar/models.json +18 -6
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/error.json +1 -0
- package/locales/bg-BG/modelProvider.json +7 -0
- package/locales/bg-BG/models.json +18 -6
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/error.json +1 -0
- package/locales/de-DE/modelProvider.json +7 -0
- package/locales/de-DE/models.json +18 -6
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/error.json +1 -0
- package/locales/en-US/modelProvider.json +7 -0
- package/locales/en-US/models.json +18 -6
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/error.json +1 -0
- package/locales/es-ES/modelProvider.json +7 -0
- package/locales/es-ES/models.json +18 -6
- package/locales/es-ES/providers.json +3 -0
- package/locales/fr-FR/error.json +1 -0
- package/locales/fr-FR/modelProvider.json +7 -0
- package/locales/fr-FR/models.json +17 -5
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/error.json +1 -0
- package/locales/it-IT/modelProvider.json +7 -0
- package/locales/it-IT/models.json +18 -6
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/error.json +1 -0
- package/locales/ja-JP/modelProvider.json +7 -0
- package/locales/ja-JP/models.json +18 -6
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/error.json +1 -0
- package/locales/ko-KR/modelProvider.json +7 -0
- package/locales/ko-KR/models.json +17 -5
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/error.json +1 -0
- package/locales/nl-NL/modelProvider.json +7 -0
- package/locales/nl-NL/models.json +17 -5
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/error.json +1 -0
- package/locales/pl-PL/modelProvider.json +7 -0
- package/locales/pl-PL/models.json +18 -6
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/error.json +1 -0
- package/locales/pt-BR/modelProvider.json +7 -0
- package/locales/pt-BR/models.json +18 -6
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/error.json +1 -0
- package/locales/ru-RU/modelProvider.json +7 -0
- package/locales/ru-RU/models.json +18 -6
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/error.json +1 -0
- package/locales/tr-TR/modelProvider.json +7 -0
- package/locales/tr-TR/models.json +18 -6
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/error.json +1 -0
- package/locales/vi-VN/modelProvider.json +7 -0
- package/locales/vi-VN/models.json +18 -6
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/error.json +2 -1
- package/locales/zh-CN/modelProvider.json +8 -1
- package/locales/zh-CN/models.json +16 -4
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/error.json +1 -0
- package/locales/zh-TW/modelProvider.json +7 -0
- package/locales/zh-TW/models.json +16 -4
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +5 -3
- package/src/app/(main)/settings/llm/ProviderList/HuggingFace/index.tsx +53 -0
- package/src/app/(main)/settings/llm/ProviderList/providers.tsx +12 -1
- package/src/config/llm.ts +10 -0
- package/src/config/modelProviders/huggingface.ts +50 -0
- package/src/config/modelProviders/index.ts +4 -0
- package/src/const/settings/llm.ts +5 -0
- package/src/features/Conversation/Error/index.tsx +1 -0
- package/src/libs/agent-runtime/AgentRuntime.ts +7 -0
- package/src/libs/agent-runtime/error.ts +1 -0
- package/src/libs/agent-runtime/groq/index.ts +1 -1
- package/src/libs/agent-runtime/huggingface/index.ts +48 -0
- package/src/libs/agent-runtime/siliconcloud/index.ts +8 -0
- package/src/libs/agent-runtime/types/type.ts +1 -0
- package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +58 -20
- package/src/libs/agent-runtime/utils/streams/openai.test.ts +78 -7
- package/src/libs/agent-runtime/utils/streams/openai.ts +38 -5
- package/src/libs/agent-runtime/utils/streams/protocol.ts +63 -4
- package/src/locales/default/error.ts +2 -2
- package/src/locales/default/modelProvider.ts +8 -1
- package/src/server/globalConfig/index.ts +12 -1
- package/src/server/modules/AgentRuntime/index.ts +10 -0
- package/src/services/_url.ts +4 -5
- package/src/types/user/settings/keyVaults.ts +1 -0
- /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/google/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/google/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/minimax/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/minimax/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/models/[provider]/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/openai/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/openai/route.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.test.ts +0 -0
- /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.ts +0 -0
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,64 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.22.1](https://github.com/lobehub/lobe-chat/compare/v1.22.0...v1.22.1)
|
6
|
+
|
7
|
+
<sup>Released on **2024-10-12**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Fix function calling issue, disable stream when using tools.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's fixed
|
19
|
+
|
20
|
+
- **misc**: Fix function calling issue, disable stream when using tools, closes [#4335](https://github.com/lobehub/lobe-chat/issues/4335) ([9f8e0a9](https://github.com/lobehub/lobe-chat/commit/9f8e0a9))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
## [Version 1.22.0](https://github.com/lobehub/lobe-chat/compare/v1.21.16...v1.22.0)
|
31
|
+
|
32
|
+
<sup>Released on **2024-10-12**</sup>
|
33
|
+
|
34
|
+
#### ♻ Code Refactoring
|
35
|
+
|
36
|
+
- **misc**: Refactor the chat webapi.
|
37
|
+
|
38
|
+
#### ✨ Features
|
39
|
+
|
40
|
+
- **misc**: Add HuggingFace Model Provider.
|
41
|
+
|
42
|
+
<br/>
|
43
|
+
|
44
|
+
<details>
|
45
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
46
|
+
|
47
|
+
#### Code refactoring
|
48
|
+
|
49
|
+
- **misc**: Refactor the chat webapi, closes [#4339](https://github.com/lobehub/lobe-chat/issues/4339) ([4722444](https://github.com/lobehub/lobe-chat/commit/4722444))
|
50
|
+
|
51
|
+
#### What's improved
|
52
|
+
|
53
|
+
- **misc**: Add HuggingFace Model Provider, closes [#4225](https://github.com/lobehub/lobe-chat/issues/4225) ([d310931](https://github.com/lobehub/lobe-chat/commit/d310931))
|
54
|
+
|
55
|
+
</details>
|
56
|
+
|
57
|
+
<div align="right">
|
58
|
+
|
59
|
+
[](#readme-top)
|
60
|
+
|
61
|
+
</div>
|
62
|
+
|
5
63
|
### [Version 1.21.16](https://github.com/lobehub/lobe-chat/compare/v1.21.15...v1.21.16)
|
6
64
|
|
7
65
|
<sup>Released on **2024-10-12**</sup>
|
package/README.zh-CN.md
CHANGED
@@ -68,7 +68,7 @@
|
|
68
68
|
- [更多特性](#更多特性)
|
69
69
|
- [⚡️ 性能测试](#️-性能测试)
|
70
70
|
- [🛳 开箱即用](#-开箱即用)
|
71
|
-
- [`A` 使用 Vercel、Zeabur 或
|
71
|
+
- [`A` 使用 Vercel、Zeabur 、Sealos 或 阿里云计算巢 部署](#a-使用-vercelzeabur-sealos-或-阿里云计算巢-部署)
|
72
72
|
- [`B` 使用 Docker 部署](#b-使用-docker-部署)
|
73
73
|
- [环境变量](#环境变量)
|
74
74
|
- [获取 OpenAI API Key](#获取-openai-api-key)
|
@@ -426,9 +426,9 @@ LobeChat 提供了 Vercel 的 自托管版本 和 [Docker 镜像][docker-release
|
|
426
426
|
>
|
427
427
|
> 完整教程请查阅 [📘 构建属于自己的 Lobe Chat][docs-self-hosting]
|
428
428
|
|
429
|
-
### `A` 使用 Vercel、Zeabur 或
|
429
|
+
### `A` 使用 Vercel、Zeabur 、Sealos 或 阿里云计算巢 部署
|
430
430
|
|
431
|
-
如果想在 Vercel
|
431
|
+
如果想在 Vercel 、 Zeabur 或 阿里云 上部署该服务,可以按照以下步骤进行操作:
|
432
432
|
|
433
433
|
- 准备好你的 [OpenAI API Key](https://platform.openai.com/account/api-keys) 。
|
434
434
|
- 点击下方按钮开始部署: 直接使用 GitHub 账号登录即可,记得在环境变量页填入 `OPENAI_API_KEY` (必填) and `ACCESS_CODE`(推荐);
|
@@ -437,9 +437,9 @@ LobeChat 提供了 Vercel 的 自托管版本 和 [Docker 镜像][docker-release
|
|
437
437
|
|
438
438
|
<div align="center">
|
439
439
|
|
440
|
-
| 使用 Vercel 部署 | 使用 Zeabur 部署 | 使用 Sealos 部署 |
|
441
|
-
| :-------------------------------------: | :---------------------------------------------------------: | :---------------------------------------------------------: |
|
442
|
-
| [![][deploy-button-image]][deploy-link] | [![][deploy-on-zeabur-button-image]][deploy-on-zeabur-link] | [![][deploy-on-sealos-button-image]][deploy-on-sealos-link] |
|
440
|
+
| 使用 Vercel 部署 | 使用 Zeabur 部署 | 使用 Sealos 部署 | 使用阿里云计算巢部署 |
|
441
|
+
| :-------------------------------------: | :---------------------------------------------------------: | :---------------------------------------------------------: | :-----------------------------------------------------------------------: |
|
442
|
+
| [![][deploy-button-image]][deploy-link] | [![][deploy-on-zeabur-button-image]][deploy-on-zeabur-link] | [![][deploy-on-sealos-button-image]][deploy-on-sealos-link] | [![][deploy-on-alibaba-cloud-button-image]][deploy-on-alibaba-cloud-link] |
|
443
443
|
|
444
444
|
</div>
|
445
445
|
|
@@ -726,6 +726,8 @@ This project is [Apache 2.0](./LICENSE) licensed.
|
|
726
726
|
[codespaces-shield]: https://github.com/codespaces/badge.svg
|
727
727
|
[deploy-button-image]: https://vercel.com/button
|
728
728
|
[deploy-link]: https://vercel.com/new/clone?repository-url=https%3A%2F%2Fgithub.com%2Flobehub%2Flobe-chat&env=OPENAI_API_KEY,ACCESS_CODE&envDescription=Find%20your%20OpenAI%20API%20Key%20by%20click%20the%20right%20Learn%20More%20button.%20%7C%20Access%20Code%20can%20protect%20your%20website&envLink=https%3A%2F%2Fplatform.openai.com%2Faccount%2Fapi-keys&project-name=lobe-chat&repository-name=lobe-chat
|
729
|
+
[deploy-on-alibaba-cloud-button-image]: https://service-info-public.oss-cn-hangzhou.aliyuncs.com/computenest-en.svg
|
730
|
+
[deploy-on-alibaba-cloud-link]: https://computenest.console.aliyun.com/service/instance/create/default?type=user&ServiceName=LobeChat%E7%A4%BE%E5%8C%BA%E7%89%88
|
729
731
|
[deploy-on-sealos-button-image]: https://raw.githubusercontent.com/labring-actions/templates/main/Deploy-on-Sealos.svg
|
730
732
|
[deploy-on-sealos-link]: https://cloud.sealos.io/?openapp=system-template%3FtemplateName%3Dlobe-chat
|
731
733
|
[deploy-on-zeabur-button-image]: https://zeabur.com/button.svg
|
@@ -35,12 +35,13 @@ inStep
|
|
35
35
|
src={'https://github.com/user-attachments/assets/927b1040-e23f-4919-92e2-80a400db8327'}
|
36
36
|
/>
|
37
37
|
|
38
|
-
-
|
38
|
+
- Enter the `Security Authentication` -> `Access Key` management page from the user account menu
|
39
|
+
- Copy the `Access Key` and `Secret Key`, and store them safely
|
39
40
|
|
40
41
|
<Image
|
41
42
|
alt={'Save Keys'}
|
42
43
|
inStep
|
43
|
-
src={'https://github.com/user-attachments/assets/
|
44
|
+
src={'https://github.com/user-attachments/assets/bb9dadd3-7e9c-45fd-8c56-553ab7287453'}
|
44
45
|
/>
|
45
46
|
|
46
47
|
### Step 2: Configure Wenxin Qianfan in LobeChat
|
@@ -54,7 +55,7 @@ inStep
|
|
54
55
|
src={'https://github.com/user-attachments/assets/e3995de7-38d9-489b-80a2-434477018469'}
|
55
56
|
/>
|
56
57
|
|
57
|
-
- Enter the obtained `
|
58
|
+
- Enter the obtained `Access Key` and `Secret Key`
|
58
59
|
- Select a Wenxin Qianfan model for your AI assistant to start interacting
|
59
60
|
|
60
61
|
<Image
|
@@ -36,12 +36,13 @@ tags:
|
|
36
36
|
src={'https://github.com/user-attachments/assets/927b1040-e23f-4919-92e2-80a400db8327'}
|
37
37
|
/>
|
38
38
|
|
39
|
-
-
|
39
|
+
- 在用户账号菜单进入 `安全认证` -> `Access Key` 管理页面
|
40
|
+
- 复制 `Access Key` 和 `Secret Key`,并妥善保存
|
40
41
|
|
41
42
|
<Image
|
42
43
|
alt={'保存密钥'}
|
43
44
|
inStep
|
44
|
-
src={'https://github.com/user-attachments/assets/
|
45
|
+
src={'https://github.com/user-attachments/assets/bb9dadd3-7e9c-45fd-8c56-553ab7287453'}
|
45
46
|
/>
|
46
47
|
|
47
48
|
### 步骤二:在 LobeChat 中配置文心千帆
|
@@ -55,7 +56,7 @@ tags:
|
|
55
56
|
src={'https://github.com/user-attachments/assets/e3995de7-38d9-489b-80a2-434477018469'}
|
56
57
|
/>
|
57
58
|
|
58
|
-
- 填入获得的 `
|
59
|
+
- 填入获得的 `Access Key` 和 `Secret Key`
|
59
60
|
- 为你的 AI 助手选择一个文心千帆的模型即可开始对话
|
60
61
|
|
61
62
|
<Image
|
package/locales/ar/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "خطأ في طلب خدمة Ollama، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
|
68
68
|
"OllamaServiceUnavailable": "خدمة Ollama غير متوفرة، يرجى التحقق من تشغيل Ollama بشكل صحيح أو إعدادات الـ Ollama للاتصال عبر النطاقات",
|
69
69
|
"OpenAIBizError": "طلب خدمة OpenAI خاطئ، يرجى التحقق من المعلومات التالية أو إعادة المحاولة",
|
70
|
+
"PermissionDenied": "عذرًا، ليس لديك إذن للوصول إلى هذه الخدمة، يرجى التحقق مما إذا كانت مفاتيحك تمتلك إذن الوصول",
|
70
71
|
"PluginApiNotFound": "عذرًا، لا يوجد API للإضافة في وصف الإضافة، يرجى التحقق من تطابق طريقة الطلب الخاصة بك مع API الوصف",
|
71
72
|
"PluginApiParamsError": "عذرًا، فشلت التحقق من صحة معلمات الطلب للإضافة، يرجى التحقق من تطابق المعلمات مع معلومات الوصف",
|
72
73
|
"PluginFailToTransformArguments": "عذرًا، فشل تحويل معلمات استدعاء الإضافة، يرجى محاولة إعادة إنشاء رسالة المساعد أو تجربة نموذج AI ذو قدرات استدعاء أقوى",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "أدخل رمز HuggingFace الخاص بك، انقر [هنا](https://huggingface.co/settings/tokens) لإنشاء واحد",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "رمز HuggingFace"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "اختبر ما إذا تم إدخال عنوان الوكيل بشكل صحيح",
|
package/locales/ar/models.json
CHANGED
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "نموذج تحسين التعليمات الخفيف من Google"
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 هو سلسلة نماذج نصية مفتوحة المصدر خفيفة الوزن من Google."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "نموذج Llama 3.1 Sonar Small Online، يتمتع بـ 8B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم للدردشة عبر الإنترنت، قادر على معالجة تفاعلات نصية متنوعة بكفاءة."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "واحد من أفضل نماذج المحادثة"
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) هو نموذج دردشة قوي، يدعم احتياجات الحوار المعقدة."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B هو نموذج خبير نادر، يستخدم عدة معلمات لزيادة سرعة الاستدلال، مناسب لمعالجة المهام متعددة اللغات وتوليد الشيفرة."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرة التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini هو أحدث نموذج من OpenAI تم إطلاقه بعد GPT-4 Omni، ويدعم إدخال النصوص والصور وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "نموذج Qwen
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "نموذج اللغة البصرية الكبير Qwen. مقارنةً بالنسخة المحسّنة، تعزز مرة أخرى من قدرة الاستدلال البصري وقدرة اتباع التعليمات، مما يوفر مستوى أعلى من الإدراك البصري والمعرفة."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "نسخة محسّنة من نموذج اللغة البصرية الكبير Qwen. تعزز بشكل كبير من قدرة التعرف على التفاصيل وقدرة التعرف على النصوص، وتدعم دقة تصل إلى أكثر من مليون بكسل وأبعاد صور بأي نسبة عرض إلى ارتفاع."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "نموذج تم تدريبه باستخدام نموذج Qwen-7B اللغوي، مع إضافة نموذج الصور، بدقة إدخال الصور 448."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "تقدم واجهة برمجة التطبيقات الخاصة بـ HuggingFace طريقة سريعة ومجانية لاستكشاف الآلاف من النماذج لمجموعة متنوعة من المهام. سواء كنت تقوم بتصميم نموذج أولي لتطبيق جديد أو تحاول استكشاف إمكانيات التعلم الآلي، فإن هذه الواجهة تتيح لك الوصول الفوري إلى نماذج عالية الأداء في مجالات متعددة."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام."
|
35
38
|
},
|
package/locales/bg-BG/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "Грешка при заявка към услугата Ollama, моля, отстранете неизправностите или опитайте отново въз основа на следната информация",
|
68
68
|
"OllamaServiceUnavailable": "Услугата Ollama не е налична. Моля, проверете дали Ollama работи правилно или дали е конфигуриран коректно за междудомейност.",
|
69
69
|
"OpenAIBizError": "Грешка в услугата на OpenAI, моля проверете следната информация или опитайте отново",
|
70
|
+
"PermissionDenied": "Съжаляваме, нямате разрешение да достъпвате тази услуга. Моля, проверете дали вашият ключ има необходимите права за достъп.",
|
70
71
|
"PluginApiNotFound": "Съжаляваме, API не съществува в манифеста на плъгина. Моля, проверете дали методът на вашата заявка съвпада с API на манифеста на плъгина",
|
71
72
|
"PluginApiParamsError": "Съжаляваме, проверката на входния параметър за заявката на плъгина е неуспешна. Моля, проверете дали входните параметри съвпадат с описанието на API",
|
72
73
|
"PluginFailToTransformArguments": "Съжаляваме, неуспешно преобразуване на аргументите за извикване на плъгин. Моля, опитайте отново да генерирате съобщението на помощника или опитайте с по-мощна AI модел на Tools Calling.",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "Въведете вашия HuggingFace токен, кликнете [тук](https://huggingface.co/settings/tokens), за да създадете",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "HuggingFace токен"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "Тестване дали адресът на прокси е попълнен правилно",
|
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 продължава концепцията за лекота и ефективност."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "Лек модел за настройка на инструкции от Google."
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 е серия от леки отворени текстови модели на Google."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "Llama 3.1 Sonar Small Online модел, с 8B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за онлайн чат, способен да обработва ефективно различни текстови взаимодействия."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "Един от най-добрите модели за разговори."
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) е мощен чат модел, поддържащ сложни изисквания за диалог."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B е рядък експертен модел, който използва множество параметри за увеличаване на скоростта на разсъждение, подходящ за обработка на многоезични и кодови генериращи задачи."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и способности за генериране, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "Qwen е
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "Qwen-VL Max е модел за визуален език с изключително голям мащаб. В сравнение с подобрената версия, той отново подобрява способността за визуално разсъждение и следване на инструкции, предоставяйки по-високо ниво на визуално възприятие и познание."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "Qwen е подобрена версия
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "Моделят за визуален език Qwen-VL Plus е подобрена версия с голям мащаб. Значително подобрява способността за разпознаване на детайли и текст, поддържа резолюция над милион пиксела и изображения с произволно съотношение на страните."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "Инициализиран с езиковия модел Qwen-7B, добавя модел за изображения, предтренировъчен модел с резолюция на входа от 448."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "HuggingFace Inference API предлагава бърз и безплатен начин да изследвате хиляди модели, подходящи за различни задачи. Независимо дали проектирате прототип за ново приложение, или опитвате функционалността на машинното обучение, този API ви предоставя незабавен достъп до високопроизводителни модели в множество области."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи."
|
35
38
|
},
|
package/locales/de-DE/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "Fehler bei der Anforderung des Ollama-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
|
68
68
|
"OllamaServiceUnavailable": "Der Ollama-Dienst ist nicht verfügbar. Bitte überprüfen Sie, ob Ollama ordnungsgemäß ausgeführt wird und ob die CORS-Konfiguration von Ollama korrekt ist.",
|
69
69
|
"OpenAIBizError": "Fehler bei der Anforderung des OpenAI-Dienstes. Bitte überprüfen Sie die folgenden Informationen oder versuchen Sie es erneut.",
|
70
|
+
"PermissionDenied": "Es tut uns leid, Sie haben keine Berechtigung, auf diesen Dienst zuzugreifen. Bitte überprüfen Sie, ob Ihr Schlüssel die erforderlichen Zugriffsrechte hat.",
|
70
71
|
"PluginApiNotFound": "Entschuldigung, das API des Plugins im Plugin-Manifest existiert nicht. Bitte überprüfen Sie, ob Ihre Anfragemethode mit dem Plugin-Manifest-API übereinstimmt",
|
71
72
|
"PluginApiParamsError": "Entschuldigung, die Eingabeüberprüfung der Plugin-Anfrage ist fehlgeschlagen. Bitte überprüfen Sie, ob die Eingabe mit den API-Beschreibungsinformationen übereinstimmt",
|
72
73
|
"PluginFailToTransformArguments": "Es tut uns leid, die Plugin-Aufrufargumente konnten nicht transformiert werden. Bitte versuchen Sie, die Assistentennachricht erneut zu generieren, oder wechseln Sie zu einem leistungsstärkeren AI-Modell mit Tools Calling-Fähigkeiten und versuchen Sie es erneut.",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "Geben Sie Ihr HuggingFace-Token ein, klicken Sie [hier](https://huggingface.co/settings/tokens), um eines zu erstellen",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "HuggingFace-Token"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "Testen Sie, ob die Proxy-Adresse korrekt eingetragen wurde",
|
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "Das leichtgewichtige Anweisungsoptimierungsmodell von Google."
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 ist eine leichtgewichtige Open-Source-Textmodellreihe von Google."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "Das Llama 3.1 Sonar Small Online-Modell hat 8B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es wurde speziell für Online-Chat entwickelt und kann verschiedene Textinteraktionen effizient verarbeiten."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellen Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 ist darauf ausgelegt, Aufgaben zu bearbeiten, die visuelle und textuelle Daten kombinieren. Es zeigt hervorragende Leistungen bei Aufgaben wie Bildbeschreibung und visuellen Fragen und Antworten und überbrückt die Kluft zwischen Sprachgenerierung und visueller Schlussfolgerung."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) bietet hervorragende Sprachverarbeitungsfähigkeiten und ein ausgezeichnetes Interaktionserlebnis."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "Eines der besten Dialogmodelle."
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) ist ein leistungsstarkes Chat-Modell, das komplexe Dialoganforderungen unterstützt."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B ist ein spärliches Expertenmodell, das mehrere Parameter nutzt, um die Schlussfolgerungsgeschwindigkeit zu erhöhen und sich für die Verarbeitung mehrsprachiger und Codegenerierungsaufgaben eignet."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technischem Support."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "Qwen VL unterstützt flexible Interaktionsmethoden, einschließlich Mehrbild-, Mehrfachfragen und kreativen Fähigkeiten."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "Das Tongyi Qianwen Ultra-Scale Visuelle Sprachmodell. Im Vergleich zur verbesserten Version wurden die Fähigkeiten zur visuellen Schlussfolgerung und Befolgung von Anweisungen weiter gesteigert, was ein höheres Niveau an visueller Wahrnehmung und Kognition bietet."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "Die verbesserte Version des Tongyi Qianwen, eines großangelegten visuellen Sprachmodells. Deutlich verbesserte Fähigkeiten zur Detailerkennung und Texterkennung, unterstützt Bildauflösungen von über einer Million Pixel und beliebige Seitenverhältnisse."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "Initiiert mit dem Qwen-7B-Sprachmodell, fügt es ein Bildmodell hinzu, das für Bildeingaben mit einer Auflösung von 448 vortrainiert wurde."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "Die HuggingFace Inference API bietet eine schnelle und kostenlose Möglichkeit, Tausende von Modellen für verschiedene Aufgaben zu erkunden. Egal, ob Sie Prototypen für neue Anwendungen erstellen oder die Funktionen des maschinellen Lernens ausprobieren, diese API ermöglicht Ihnen den sofortigen Zugriff auf leistungsstarke Modelle aus verschiedenen Bereichen."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt."
|
35
38
|
},
|
package/locales/en-US/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "Error requesting Ollama service, please troubleshoot or retry based on the following information",
|
68
68
|
"OllamaServiceUnavailable": "Ollama service is unavailable. Please check if Ollama is running properly or if the cross-origin configuration of Ollama is set correctly.",
|
69
69
|
"OpenAIBizError": "Error requesting OpenAI service, please troubleshoot or retry based on the following information",
|
70
|
+
"PermissionDenied": "Sorry, you do not have permission to access this service. Please check if your key has the necessary access rights.",
|
70
71
|
"PluginApiNotFound": "Sorry, the API does not exist in the plugin's manifest. Please check if your request method matches the plugin manifest API",
|
71
72
|
"PluginApiParamsError": "Sorry, the input parameter validation for the plugin request failed. Please check if the input parameters match the API description",
|
72
73
|
"PluginFailToTransformArguments": "Sorry, the plugin failed to parse the arguments. Please try regenerating the assistant message or switch to a more powerful AI model with Tools Calling capability and try again",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "Enter your HuggingFace Token, click [here](https://huggingface.co/settings/tokens) to create one",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "HuggingFace Token"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "Test if the proxy address is correctly filled in",
|
@@ -458,6 +458,9 @@
|
|
458
458
|
"google/gemma-2-27b-it": {
|
459
459
|
"description": "Gemma 2 continues the design philosophy of being lightweight and efficient."
|
460
460
|
},
|
461
|
+
"google/gemma-2-2b-it": {
|
462
|
+
"description": "Google's lightweight instruction-tuning model."
|
463
|
+
},
|
461
464
|
"google/gemma-2-9b-it": {
|
462
465
|
"description": "Gemma 2 is Google's lightweight open-source text model series."
|
463
466
|
},
|
@@ -589,6 +592,12 @@
|
|
589
592
|
"llama-3.1-sonar-small-128k-online": {
|
590
593
|
"description": "Llama 3.1 Sonar Small Online model, featuring 8B parameters, supports a context length of approximately 127,000 tokens, designed for online chat, efficiently handling various text interactions."
|
591
594
|
},
|
595
|
+
"llama-3.2-11b-vision-preview": {
|
596
|
+
"description": "Llama 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning."
|
597
|
+
},
|
598
|
+
"llama-3.2-90b-vision-preview": {
|
599
|
+
"description": "Llama 3.2 is designed to handle tasks that combine visual and textual data. It excels in tasks such as image description and visual question answering, bridging the gap between language generation and visual reasoning."
|
600
|
+
},
|
592
601
|
"llama3-70b-8192": {
|
593
602
|
"description": "Meta Llama 3 70B provides unparalleled complexity handling capabilities, tailored for high-demand projects."
|
594
603
|
},
|
@@ -643,6 +652,9 @@
|
|
643
652
|
"meta-llama/Llama-2-13b-chat-hf": {
|
644
653
|
"description": "LLaMA-2 Chat (13B) offers excellent language processing capabilities and outstanding interactive experiences."
|
645
654
|
},
|
655
|
+
"meta-llama/Llama-2-7b-chat-hf": {
|
656
|
+
"description": "One of the best conversational models."
|
657
|
+
},
|
646
658
|
"meta-llama/Llama-3-70b-chat-hf": {
|
647
659
|
"description": "LLaMA-3 Chat (70B) is a powerful chat model that supports complex conversational needs."
|
648
660
|
},
|
@@ -811,8 +823,8 @@
|
|
811
823
|
"open-mixtral-8x7b": {
|
812
824
|
"description": "Mixtral 8x7B is a sparse expert model that leverages multiple parameters to enhance reasoning speed, suitable for handling multilingual and code generation tasks."
|
813
825
|
},
|
814
|
-
"openai/gpt-4o
|
815
|
-
"description": "ChatGPT-4o is a dynamic model that updates in real-time to maintain the latest version. It combines powerful language understanding and generation capabilities,
|
826
|
+
"openai/gpt-4o": {
|
827
|
+
"description": "ChatGPT-4o is a dynamic model that updates in real-time to maintain the latest version. It combines powerful language understanding and generation capabilities, suitable for large-scale application scenarios, including customer service, education, and technical support."
|
816
828
|
},
|
817
829
|
"openai/gpt-4o-mini": {
|
818
830
|
"description": "GPT-4o mini is the latest model released by OpenAI following GPT-4 Omni, supporting both text and image input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models and over 60% cheaper than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences."
|
@@ -862,11 +874,11 @@
|
|
862
874
|
"qwen-vl-chat-v1": {
|
863
875
|
"description": "Qwen VL supports flexible interaction methods, including multi-image, multi-turn Q&A, and creative capabilities."
|
864
876
|
},
|
865
|
-
"qwen-vl-max": {
|
866
|
-
"description": "
|
877
|
+
"qwen-vl-max-latest": {
|
878
|
+
"description": "Tongyi Qianwen's ultra-large-scale visual language model. Compared to the enhanced version, it further improves visual reasoning and instruction-following abilities, providing a higher level of visual perception and cognition."
|
867
879
|
},
|
868
|
-
"qwen-vl-plus": {
|
869
|
-
"description": "
|
880
|
+
"qwen-vl-plus-latest": {
|
881
|
+
"description": "Tongyi Qianwen's large-scale visual language model enhanced version. Significantly improves detail recognition and text recognition capabilities, supporting ultra-high pixel resolution and images of any aspect ratio."
|
870
882
|
},
|
871
883
|
"qwen-vl-v1": {
|
872
884
|
"description": "Initialized with the Qwen-7B language model, this pre-trained model adds an image model with an input resolution of 448."
|
@@ -30,6 +30,9 @@
|
|
30
30
|
"groq": {
|
31
31
|
"description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments."
|
32
32
|
},
|
33
|
+
"huggingface": {
|
34
|
+
"description": "The HuggingFace Inference API provides a fast and free way for you to explore thousands of models for various tasks. Whether you are prototyping for a new application or experimenting with the capabilities of machine learning, this API gives you instant access to high-performance models across multiple domains."
|
35
|
+
},
|
33
36
|
"hunyuan": {
|
34
37
|
"description": "A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills."
|
35
38
|
},
|
package/locales/es-ES/error.json
CHANGED
@@ -67,6 +67,7 @@
|
|
67
67
|
"OllamaBizError": "Error al solicitar el servicio de Ollama, por favor verifica la siguiente información o inténtalo de nuevo",
|
68
68
|
"OllamaServiceUnavailable": "El servicio Ollama no está disponible. Por favor, verifica si Ollama está funcionando correctamente o si la configuración de Ollama para el acceso entre dominios está configurada correctamente.",
|
69
69
|
"OpenAIBizError": "Se produjo un error al solicitar el servicio de OpenAI, por favor, revise la siguiente información o inténtelo de nuevo",
|
70
|
+
"PermissionDenied": "Lo sentimos, no tienes permiso para acceder a este servicio. Por favor, verifica si tu clave tiene los permisos necesarios.",
|
70
71
|
"PluginApiNotFound": "Lo sentimos, el API especificado no existe en el manifiesto del complemento. Verifique si su método de solicitud coincide con el API del manifiesto del complemento",
|
71
72
|
"PluginApiParamsError": "Lo sentimos, la validación de los parámetros de entrada de la solicitud del complemento no ha pasado. Verifique si los parámetros de entrada coinciden con la información de descripción del API",
|
72
73
|
"PluginFailToTransformArguments": "Lo siento, no se pudieron transformar los argumentos de la llamada al plugin. Por favor, intenta generar de nuevo el mensaje del asistente o prueba con un modelo de IA de Tools Calling más potente.",
|
@@ -58,6 +58,13 @@
|
|
58
58
|
"title": "GitHub PAT"
|
59
59
|
}
|
60
60
|
},
|
61
|
+
"huggingface": {
|
62
|
+
"accessToken": {
|
63
|
+
"desc": "Introduce tu token de HuggingFace, haz clic [aquí](https://huggingface.co/settings/tokens) para crear uno",
|
64
|
+
"placeholder": "hf_xxxxxxxxx",
|
65
|
+
"title": "Token de HuggingFace"
|
66
|
+
}
|
67
|
+
},
|
61
68
|
"ollama": {
|
62
69
|
"checker": {
|
63
70
|
"desc": "Prueba si la dirección del proxy de la interfaz se ha introducido correctamente",
|