@lobehub/chat 1.31.5 → 1.31.7
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/Dockerfile +3 -1
- package/Dockerfile.database +3 -1
- package/docs/usage/providers/cloudflare.mdx +82 -0
- package/docs/usage/providers/cloudflare.zh-CN.mdx +79 -0
- package/locales/ar/models.json +39 -7
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +38 -6
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +39 -7
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +38 -6
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +38 -6
- package/locales/es-ES/providers.json +4 -0
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -7
- package/locales/fa-IR/providers.json +4 -0
- package/locales/fr-FR/models.json +38 -6
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +38 -6
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +39 -7
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +38 -6
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +38 -6
- package/locales/nl-NL/providers.json +4 -0
- package/locales/pl-PL/models.json +37 -5
- package/locales/pl-PL/providers.json +4 -0
- package/locales/pt-BR/models.json +38 -6
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +38 -6
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +39 -7
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +37 -5
- package/locales/vi-VN/providers.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -1
- package/locales/zh-CN/models.json +37 -5
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +38 -6
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
- package/src/config/llm.ts +0 -66
- package/src/config/modelProviders/cloudflare.ts +1 -0
- package/src/features/ChatInput/ActionBar/config.ts +1 -20
- package/src/features/ChatInput/ActionBar/index.tsx +25 -28
- package/src/features/ChatInput/types.ts +1 -0
- package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
- package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
- package/src/features/Conversation/index.ts +2 -0
- package/src/server/globalConfig/genServerLLMConfig.test.ts +5 -1
- package/src/server/globalConfig/genServerLLMConfig.ts +3 -2
- package/src/features/Conversation/index.tsx +0 -30
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.31.7](https://github.com/lobehub/lobe-chat/compare/v1.31.6...v1.31.7)
|
6
|
+
|
7
|
+
<sup>Released on **2024-11-15**</sup>
|
8
|
+
|
9
|
+
#### ♻ Code Refactoring
|
10
|
+
|
11
|
+
- **misc**: `genServerLLMConfig` function, get \*\_MODEL_LIST from env.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Code refactoring
|
19
|
+
|
20
|
+
- **misc**: `genServerLLMConfig` function, get \*\_MODEL_LIST from env, closes [#4694](https://github.com/lobehub/lobe-chat/issues/4694) ([d84f369](https://github.com/lobehub/lobe-chat/commit/d84f369))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.31.6](https://github.com/lobehub/lobe-chat/compare/v1.31.5...v1.31.6)
|
31
|
+
|
32
|
+
<sup>Released on **2024-11-13**</sup>
|
33
|
+
|
34
|
+
#### ♻ Code Refactoring
|
35
|
+
|
36
|
+
- **misc**: Refactor the chat conversation implement.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### Code refactoring
|
44
|
+
|
45
|
+
- **misc**: Refactor the chat conversation implement, closes [#4689](https://github.com/lobehub/lobe-chat/issues/4689) ([85b1630](https://github.com/lobehub/lobe-chat/commit/85b1630))
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
### [Version 1.31.5](https://github.com/lobehub/lobe-chat/compare/v1.31.4...v1.31.5)
|
6
56
|
|
7
57
|
<sup>Released on **2024-11-12**</sup>
|
package/Dockerfile
CHANGED
@@ -152,6 +152,8 @@ ENV \
|
|
152
152
|
AZURE_API_KEY="" AZURE_API_VERSION="" AZURE_ENDPOINT="" AZURE_MODEL_LIST="" \
|
153
153
|
# Baichuan
|
154
154
|
BAICHUAN_API_KEY="" BAICHUAN_MODEL_LIST="" \
|
155
|
+
# Cloudflare
|
156
|
+
CLOUDFLARE_API_KEY="" CLOUDFLARE_BASE_URL_OR_ACCOUNT_ID="" CLOUDFLARE_MODEL_LIST="" \
|
155
157
|
# DeepSeek
|
156
158
|
DEEPSEEK_API_KEY="" DEEPSEEK_MODEL_LIST="" \
|
157
159
|
# Fireworks AI
|
@@ -175,7 +177,7 @@ ENV \
|
|
175
177
|
# Novita
|
176
178
|
NOVITA_API_KEY="" NOVITA_MODEL_LIST="" \
|
177
179
|
# Ollama
|
178
|
-
OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
|
180
|
+
ENABLED_OLLAMA="" OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
|
179
181
|
# OpenAI
|
180
182
|
OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
|
181
183
|
# OpenRouter
|
package/Dockerfile.database
CHANGED
@@ -187,6 +187,8 @@ ENV \
|
|
187
187
|
AZURE_API_KEY="" AZURE_API_VERSION="" AZURE_ENDPOINT="" AZURE_MODEL_LIST="" \
|
188
188
|
# Baichuan
|
189
189
|
BAICHUAN_API_KEY="" BAICHUAN_MODEL_LIST="" \
|
190
|
+
# Cloudflare
|
191
|
+
CLOUDFLARE_API_KEY="" CLOUDFLARE_BASE_URL_OR_ACCOUNT_ID="" CLOUDFLARE_MODEL_LIST="" \
|
190
192
|
# DeepSeek
|
191
193
|
DEEPSEEK_API_KEY="" DEEPSEEK_MODEL_LIST="" \
|
192
194
|
# Fireworks AI
|
@@ -210,7 +212,7 @@ ENV \
|
|
210
212
|
# Novita
|
211
213
|
NOVITA_API_KEY="" NOVITA_MODEL_LIST="" \
|
212
214
|
# Ollama
|
213
|
-
OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
|
215
|
+
ENABLED_OLLAMA="" OLLAMA_MODEL_LIST="" OLLAMA_PROXY_URL="" \
|
214
216
|
# OpenAI
|
215
217
|
OPENAI_API_KEY="" OPENAI_MODEL_LIST="" OPENAI_PROXY_URL="" \
|
216
218
|
# OpenRouter
|
@@ -0,0 +1,82 @@
|
|
1
|
+
---
|
2
|
+
title: Using Cloudflare Workers AI in LobeChat
|
3
|
+
description: Learn how to integrate and utilize Cloudflare Workers AI Models in LobeChat.
|
4
|
+
tags:
|
5
|
+
- LobeChat
|
6
|
+
- Cloudflare
|
7
|
+
- Workers AI
|
8
|
+
- Provider
|
9
|
+
- API Key
|
10
|
+
- Web UI
|
11
|
+
---
|
12
|
+
|
13
|
+
# Using Cloudflare Workers AI in LobeChat
|
14
|
+
|
15
|
+
<Image
|
16
|
+
cover
|
17
|
+
src={'https://github.com/user-attachments/assets/91fe32a8-e5f0-47ff-b8ae-d036c8a7bff1'}
|
18
|
+
/>
|
19
|
+
|
20
|
+
[Cloudflare Workers AI](https://www.cloudflare.com/developer-platform/products/workers-ai/) is a service that integrates AI capabilities into the Cloudflare Workers serverless computing platform. Its core functionality lies in delivering fast, scalable computing power through Cloudflare's global network, thereby reducing operational overhead.
|
21
|
+
|
22
|
+
This document will guide you on how to use Cloudflare Workers AI in LobeChat:
|
23
|
+
|
24
|
+
<Steps>
|
25
|
+
|
26
|
+
### Step 1: Obtain Your Cloudflare Workers AI API Key
|
27
|
+
|
28
|
+
- Visit the [Cloudflare website](https://www.cloudflare.com/) and sign up for an account.
|
29
|
+
- Log in to the [Cloudflare dashboard](https://dash.cloudflare.com/).
|
30
|
+
- In the left-hand menu, locate the `AI` > `Workers AI` option.
|
31
|
+
|
32
|
+
<Image
|
33
|
+
alt={'Cloudflare Workers AI'}
|
34
|
+
inStep
|
35
|
+
src={'https://github.com/user-attachments/assets/4257e123-9018-4562-ac66-0f39278906f5'}
|
36
|
+
/>
|
37
|
+
|
38
|
+
- In the `Using REST API` section, click the `Create Workers AI API Token` button.
|
39
|
+
- In the drawer dialog, copy and save your `API token`.
|
40
|
+
- Also, copy and save your `Account ID`.
|
41
|
+
|
42
|
+
<Image
|
43
|
+
alt={'Cloudflare Workers AI API Token'}
|
44
|
+
inStep
|
45
|
+
src={'https://github.com/user-attachments/assets/f54c912d-3ee9-4f85-b8bf-619790e51b49'}
|
46
|
+
/>
|
47
|
+
|
48
|
+
<Callout type={"warning"}>
|
49
|
+
|
50
|
+
- Please store your API token securely, as it will only be displayed once. If you accidentally lose it, you will need to create a new token.
|
51
|
+
|
52
|
+
</Callout>
|
53
|
+
|
54
|
+
### Step 2: Configure Cloudflare Workers AI in LobeChat
|
55
|
+
|
56
|
+
- Go to the `Settings` interface in LobeChat.
|
57
|
+
- Under `Language Model`, find the `Cloudflare` settings.
|
58
|
+
|
59
|
+
<Image
|
60
|
+
alt={'Input API Token'}
|
61
|
+
inStep
|
62
|
+
src={'https://github.com/user-attachments/assets/82a7ebe0-69ad-43b6-8767-1316b443fa03'}
|
63
|
+
/>
|
64
|
+
|
65
|
+
- Enter the `API Token` you obtained.
|
66
|
+
- Input your `Account ID`.
|
67
|
+
- Choose a Cloudflare Workers AI model for your AI assistant to start the conversation.
|
68
|
+
|
69
|
+
<Image
|
70
|
+
alt={'Choose Cloudflare Workers AI Model and Start Conversation'}
|
71
|
+
inStep
|
72
|
+
src={'https://github.com/user-attachments/assets/09be499c-3b04-4dd6-a161-6e8ebe788354'}
|
73
|
+
/>
|
74
|
+
|
75
|
+
<Callout type={'warning'}>
|
76
|
+
You may incur charges while using the API service, please refer to Cloudflare's pricing policy for
|
77
|
+
details.
|
78
|
+
</Callout>
|
79
|
+
|
80
|
+
</Steps>
|
81
|
+
|
82
|
+
At this point, you can start conversing with the model provided by Cloudflare Workers AI in LobeChat.
|
@@ -0,0 +1,79 @@
|
|
1
|
+
---
|
2
|
+
title: 在 LobeChat 中使用 Cloudflare Workers AI
|
3
|
+
description: 学习如何在 LobeChat 中配置和使用 Cloudflare Workers AI 的 API Key,以便开始对话和交互。
|
4
|
+
tags:
|
5
|
+
- LobeChat
|
6
|
+
- Cloudflare
|
7
|
+
- Workers AI
|
8
|
+
- 供应商
|
9
|
+
- API密钥
|
10
|
+
- Web UI
|
11
|
+
---
|
12
|
+
|
13
|
+
# 在 LobeChat 中使用 Cloudflare Workers AI
|
14
|
+
|
15
|
+
<Image
|
16
|
+
cover
|
17
|
+
src={'https://github.com/user-attachments/assets/91fe32a8-e5f0-47ff-b8ae-d036c8a7bff1'}
|
18
|
+
/>
|
19
|
+
|
20
|
+
[Cloudflare Workers AI](https://www.cloudflare.com/developer-platform/products/workers-ai/) 是一种将人工智能能力集成到 Cloudflare Workers 无服务器计算平台的服务。其核心功能在于通过 Cloudflare 的全球网络提供快速、可扩展的计算能力,降低运维开销。
|
21
|
+
|
22
|
+
本文档将指导你如何在 LobeChat 中使用 Cloudflare Workers AI:
|
23
|
+
|
24
|
+
<Steps>
|
25
|
+
|
26
|
+
### 步骤一: 获取 Cloudflare Workers AI 的 API Key
|
27
|
+
|
28
|
+
- 访问 [Cloudflare 官网](https://www.cloudflare.com/) 并注册一个账号。
|
29
|
+
- 登录 [Cloudflare 控制台](https://dash.cloudflare.com/).
|
30
|
+
- 在左侧的菜单中找到 `AI` > `Workers AI` 选项。
|
31
|
+
|
32
|
+
<Image
|
33
|
+
alt={'Cloudflare Workers AI'}
|
34
|
+
inStep
|
35
|
+
src={'https://github.com/user-attachments/assets/4257e123-9018-4562-ac66-0f39278906f5'}
|
36
|
+
/>
|
37
|
+
|
38
|
+
- 在 `使用 REST API` 中点击 `创建 Workers AI API 令牌` 按钮
|
39
|
+
- 在弹出的侧边栏中复制并保存你的 `API 令牌`
|
40
|
+
- 同时也复制并保存你的 `账户ID`
|
41
|
+
|
42
|
+
<Image
|
43
|
+
alt={'Cloudflare Workers AI API Token'}
|
44
|
+
inStep
|
45
|
+
src={'https://github.com/user-attachments/assets/f54c912d-3ee9-4f85-b8bf-619790e51b49'}
|
46
|
+
/>
|
47
|
+
|
48
|
+
<Callout type={'warning'}>
|
49
|
+
- 请安全地存储 API 令牌,因为它只会出现一次。如果您意外丢失它,您将需要创建一个新令牌。
|
50
|
+
</Callout>
|
51
|
+
|
52
|
+
### 步骤二: 在 LobeChat 中配置 Cloudflare Workers AI
|
53
|
+
|
54
|
+
- 访问 LobeChat 的`设置`界面
|
55
|
+
- 在`语言模型`下找到 `Cloudflare` 的设置项
|
56
|
+
|
57
|
+
<Image
|
58
|
+
alt={'填入访问令牌'}
|
59
|
+
inStep
|
60
|
+
src={'https://github.com/user-attachments/assets/82a7ebe0-69ad-43b6-8767-1316b443fa03'}
|
61
|
+
/>
|
62
|
+
|
63
|
+
- 填入获得的 `API 令牌`
|
64
|
+
- 填入你的`账户ID`
|
65
|
+
- 为你的 AI 助手选择一个 Cloudflare Workers AI 的模型即可开始对话
|
66
|
+
|
67
|
+
<Image
|
68
|
+
alt={'选择 Cloudflare Workers AI 模型并开始对话'}
|
69
|
+
inStep
|
70
|
+
src={'https://github.com/user-attachments/assets/09be499c-3b04-4dd6-a161-6e8ebe788354'}
|
71
|
+
/>
|
72
|
+
|
73
|
+
<Callout type={'warning'}>
|
74
|
+
在使用过程中你可能需要向 API 服务提供商付费,请参考 Cloudflare 的相关费用政策。
|
75
|
+
</Callout>
|
76
|
+
|
77
|
+
</Steps>
|
78
|
+
|
79
|
+
至此你已经可以在 LobeChat 中使用 Cloudflare Workers AI 提供的模型进行对话了。
|
package/locales/ar/models.json
CHANGED
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra هو أقوى إصدار في سلسلة نماذج Spark، حيث يعزز فهم النصوص وقدرات التلخيص مع تحسين روابط البحث عبر الإنترنت. إنه حل شامل يهدف إلى تعزيز إنتاجية المكتب والاستجابة الدقيقة للاحتياجات، ويعتبر منتجًا ذكيًا رائدًا في الصناعة."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "من جيل إلى جيل، يظهر Meta Llama 3 أداءً متقدمًا في مجموعة واسعة من معايير الصناعة ويقدم قدرات جديدة، بما في ذلك تحسين التفكير."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "يستخدم تقنية تعزيز البحث لتحقيق الربط الشامل بين النموذج الكبير والمعرفة الميدانية والمعرفة من جميع أنحاء الشبكة. يدعم تحميل مستندات PDF وWord وغيرها من المدخلات، مما يضمن الحصول على المعلومات بشكل سريع وشامل، ويقدم نتائج دقيقة واحترافية."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "النموذج الأول في البلاد من حيث القدرة، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل الموسوعات، والنصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط رائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "النموذج الأول محليًا، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط الرائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "النموذج الأول محليًا، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط الرائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي شهد ترقية شاملة في القدرات مقارنةً بـERNIE 3.5، ويستخدم على نطاق واسع في مجالات متعددة لمهام معقدة؛ يدعم الاتصال التلقائي بإضافات بحث بايدو لضمان تحديث معلومات الإجابة."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "نموذج اللغة الكبير الرائد من بايدو، يظهر أداءً ممتازًا في مجموعة واسعة من المهام المعقدة في مختلف المجالات؛ يدعم الاتصال التلقائي بمكونات بحث بايدو، مما يضمن تحديث معلومات الأسئلة والأجوبة. مقارنةً بـ ERNIE 4.0، يظهر أداءً أفضل."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، والذي يظهر أداءً ممتازًا في مجالات متعددة، مما يجعله مناسبًا لمجموعة واسعة من المهام المعقدة؛ يدعم الاتصال التلقائي بمكونات البحث من بايدو، مما يضمن تحديث معلومات الأسئلة والأجوبة. مقارنة بـ ERNIE 4.0، يظهر أداءً أفضل."
|
52
75
|
},
|
@@ -146,8 +169,8 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 هو سلسلة جديدة من نماذج اللغة الكبيرة، مصممة لتحسين معالجة المهام التوجيهية."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
150
|
-
"description": "Qwen2.5-Coder
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
173
|
+
"description": "يركز Qwen2.5-Coder على كتابة الكود."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
153
176
|
"description": "Qwen2.5-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة."
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large هو أكبر نموذج MoE مفتوح المصدر في الصناعة، مع 389 مليار إجمالي عدد المعلمات و52 مليار عدد المعلمات النشطة."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "موجه لمشاهد الإنتاجية، يدعم معالجة المهام المعقدة وتوليد النصوص بكفاءة، مناسب للتطبيقات في المجالات المهنية."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "نموذج GPT-4o mini هو أحدث نموذج أطلقته OpenAI بعد GPT-4 Omni، ويدعم إدخال الصور والنصوص وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "يمتلك أداءً يعادل Grok 2، ولكنه يتمتع بكفاءة وسرعة ووظائف أعلى."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "سبارك برو 128K مزود بقدرة معالجة سياق كبيرة جدًا، قادر على معالجة ما يصل إلى 128K من معلومات السياق، مما يجعله مناسبًا بشكل خاص للتحليل الشامل ومعالجة الروابط المنطقية طويلة الأمد في المحتوى الطويل، ويمكنه تقديم منطق سلس ومتسق ودعم متنوع للاقتباسات في الاتصالات النصية المعقدة."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "نموذج كود Qwen الشامل."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "نموذج Qwen للبرمجة."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 7B."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "الإصدار المفتوح من نموذج كود Qwen الشامل."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) مناسب لمهام التعليمات الدقيقة، يوفر قدرة معالجة لغوية ممتازة."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet يرفع المعايير الصناعية، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في الحوار المعقد، واللغات المتعددة، والاستدلال، والمساعدين الذكيين."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock هي خدمة تقدمها أمازون AWS، تركز على توفير نماذج لغة ورؤية متقدمة للذكاء الاصطناعي للشركات. تشمل عائلة نماذجها سلسلة Claude من Anthropic وسلسلة Llama 3.1 من Meta، وتغطي مجموعة من الخيارات من النماذج الخفيفة إلى عالية الأداء، وتدعم مهام مثل توليد النصوص، والحوار، ومعالجة الصور، مما يجعلها مناسبة لتطبيقات الشركات بمختلف أحجامها واحتياجاتها."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek هي شركة تركز على أبحاث وتطبيقات تقنيات الذكاء الاصطناعي، حيث يجمع نموذجها الأحدث DeepSeek-V2.5 بين قدرات الحوار العامة ومعالجة الشيفرات، وقد حقق تحسينات ملحوظة في محاذاة تفضيلات البشر، ومهام الكتابة، واتباع التعليمات."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "منصة تطوير وخدمات النماذج الكبيرة والتطبيقات الأصلية للذكاء الاصطناعي على مستوى المؤسسات، تقدم مجموعة شاملة وسهلة الاستخدام من أدوات تطوير النماذج الذكية التوليدية وأدوات تطوير التطبيقات على مدار العملية بأكملها."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI هي شركة تكرّس جهودها لبناء الذكاء الاصطناعي لتسريع الاكتشافات العلمية البشرية. مهمتنا هي تعزيز فهمنا المشترك للكون."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI تركز على تقنيات الذكاء الاصطناعي في عصر الذكاء الاصطناعي 2.0، وتعزز الابتكار والتطبيقات \"الإنسان + الذكاء الاصطناعي\"، باستخدام نماذج قوية وتقنيات ذكاء اصطناعي متقدمة لتعزيز إنتاجية البشر وتحقيق تمكين التكنولوجيا."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra е най-мощната версия в серията Starfire, която подобрява разбирането и обобщаването на текстовото съдържание, докато надгражда свързаните търсения. Това е всестранно решение за повишаване на производителността в офиса и точно отговаряне на нуждите, водещо в индустрията интелигентно решение."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Поколение след поколение, Meta Llama 3 демонстрира най-съвременна производителност в широк спектър от индустриални оценки и предлага нови възможности, включително подобрено разсъждение."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Използва технологии за подобряване на търсенето, за да свърже голям модел с областни знания и знания от интернет. Поддържа качване на различни документи като PDF, Word и вход на уебсайтове, с бърз и цялостен достъп до информация, предоставяйки точни и професионални резултати."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Моделът е с най-добри способности в страната, надминаващ чуждестранните водещи модели в задачи като енциклопедични знания, дълги текстове и генериране на съдържание. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни тестови стандарти."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Флагманският модел на Baidu за изключително големи езикови модели, разработен самостоятелно, е напълно обновен в сравнение с ERNIE 3.5 и е широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговори."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Флагманският модел на Baidu, изграден на собствена технология, с изключителни резултати и широко приложение в сложни задачи в различни области; поддържа автоматично свързване с плъгини за търсене на Baidu, осигурявайки актуалност на информацията за отговори. В сравнение с ERNIE 4.0, показва по-добра производителност."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Патентованият флагмански модул на Baidu, изключително мащабен езиков модел, показващ отлични резултати и широко приложение в сложни сценарии. Поддържа автоматично свързване с плъгини на Baidu Search, гарантирайки актуалността на информацията. В сравнение с ERNIE 4.0, той представя по-добри резултати."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 е нова серия от големи езикови модели, проектирана да оптимизира обработката на инструкти."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder се фокусира върху писането на код."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large е най-голямата отворена трансформаторна архитектура MoE в индустрията, с общо 3890 милиарда параметри и 52 милиарда активни параметри."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Насочена към производствени сценарии, поддържаща обработка на сложни задачи и ефективно генериране на текст, подходяща за професионални приложения."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini е най-новият модел на OpenAI, след GPT-4 Omni, който поддържа текстово и визуално въвеждане и генерира текст. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като същевременно предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 по предпочитания за чат."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "С производителност, сравнима с Grok 2, но с по-висока ефективност, скорост и функции."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Модел за кодиране Qwen с общо предназначение."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Моделът на кода Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Отворена версия на модела за кодиране Qwen с общо предназначение."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Отворената версия на модела на кода Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) е подходящ за прецизни задачи с инструкции, предлагащи отлични способности за обработка на език."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надминаваща конкурентните модели и Claude 3 Opus, показвайки отлични резултати в широк спектър от оценки, като същевременно предлага скорост и разходи, сравними с нашите модели от средно ниво."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock е услуга, предоставяна от Amazon AWS, фокусирана върху предоставянето на напреднали AI езикови и визуални модели за предприятия. Семейството на моделите включва серията Claude на Anthropic, серията Llama 3.1 на Meta и други, обхващащи разнообразие от опции от леки до високо производителни, поддържащи текстово генериране, диалог, обработка на изображения и много други задачи, подходящи за различни мащаби и нужди на бизнес приложения."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek е компания, специализирана в изследвания и приложения на технологии за изкуствен интелект, чийто най-нов модел DeepSeek-V2.5 комбинира способности за общи диалози и обработка на код, постигайки значителни подобрения в съответствието с човешките предпочитания, писателските задачи и следването на инструкции."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Платформа за разработка и услуги на корпоративно ниво, предлагаща цялостно решение за разработка на генеративни модели на изкуствен интелект и приложения, с най-пълния и лесен за използване инструментариум за целия процес на разработка на модели и приложения."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI е компания, която се стреми да изгражда изкуствен интелект за ускоряване на човешките научни открития. Нашата мисия е да насърчаваме общото ни разбиране за вселената."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI се фокусира върху технологии за изкуствен интелект от ерата на AI 2.0, активно насърчавайки иновации и приложения на \"човек + изкуствен интелект\", използвайки мощни модели и напреднали AI технологии за повишаване на производителността на човека и реализиране на технологично овластяване."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra ist die leistungsstärkste Version der Spark-Großmodellreihe, die die Online-Suchverbindung aktualisiert und die Fähigkeit zur Textverständnis und -zusammenfassung verbessert. Es ist eine umfassende Lösung zur Steigerung der Büroproduktivität und zur genauen Reaktion auf Anforderungen und ein führendes intelligentes Produkt in der Branche."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Generation über Generation zeigt Meta Llama 3 eine Spitzenleistung in einer Vielzahl von Branchenbenchmarks und bietet neue Fähigkeiten, einschließlich verbesserter Argumentation."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Verwendet Suchverbesserungstechnologie, um eine umfassende Verknüpfung zwischen großen Modellen und Fachwissen sowie Wissen aus dem gesamten Internet zu ermöglichen. Unterstützt das Hochladen von Dokumenten wie PDF, Word und die Eingabe von URLs, um Informationen zeitnah und umfassend zu erhalten, mit genauen und professionellen Ergebnissen."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Das Modell hat die höchste Fähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativer Generierung. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren autoritativen Bewertungsbenchmarks hervorragende Leistungen."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Das Modell hat die höchste Leistungsfähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativen Generierungen auf Chinesisch. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren anerkannten Bewertungsbenchmarks hervorragende Leistungen."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Das Modell hat die höchste Leistungsfähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativen Generierungen auf Chinesisch. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren anerkannten Bewertungsbenchmarks hervorragende Leistungen."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Das von Baidu entwickelte Flaggschiff-Modell für großangelegte Sprachverarbeitung, das eine riesige Menge an chinesischen und englischen Texten abdeckt. Es verfügt über starke allgemeine Fähigkeiten und kann die meisten Anforderungen an Dialogfragen, kreative Generierung und Anwendungsfälle von Plugins erfüllen. Es unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Das von Baidu entwickelte Flaggschiff-Modell für ultra-große Sprachverarbeitung, das im Vergleich zu ERNIE 3.5 eine umfassende Verbesserung der Modellfähigkeiten erreicht hat und sich breit für komplexe Aufgaben in verschiedenen Bereichen eignet; unterstützt die automatische Anbindung an das Baidu-Such-Plugin, um die Aktualität der Antwortinformationen zu gewährleisten."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Das von Baidu entwickelte Flaggschiff-Modell für groß angelegte Sprachverarbeitung zeigt hervorragende Gesamtergebnisse und ist weit verbreitet in komplexen Aufgabenbereichen anwendbar; unterstützt die automatische Anbindung an das Baidu-Suchplugin, um die Aktualität der Frage-Antwort-Informationen zu gewährleisten. Im Vergleich zu ERNIE 4.0 zeigt es eine bessere Leistungsfähigkeit."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Baidus selbstentwickeltes Flaggschiff-Modell für großflächige Sprachverarbeitung, das in vielen komplexen Aufgaben hervorragende Ergebnisse zeigt und umfassend in verschiedenen Bereichen eingesetzt werden kann; unterstützt die automatische Anbindung an Baidu-Suchplugins, um die Aktualität von Antwortinformationen zu gewährleisten. Im Vergleich zu ERNIE 4.0 hat es eine bessere Leistung."
|
52
75
|
},
|
@@ -146,8 +169,8 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 ist eine neue Serie großer Sprachmodelle, die darauf abzielt, die Verarbeitung von instructiven Aufgaben zu optimieren."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
150
|
-
"description": "Qwen2.5-Coder konzentriert sich auf
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
173
|
+
"description": "Qwen2.5-Coder konzentriert sich auf das Programmieren."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
153
176
|
"description": "Qwen2.5-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Lösungen für schwierige Aufgaben."
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B ist die Open-Source-Version, die ein optimiertes Dialogerlebnis für Konversationsanwendungen bietet."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large ist das größte Open-Source-Transformer-Architektur MoE-Modell der Branche mit insgesamt 389 Milliarden Parametern und 52 Milliarden aktiven Parametern."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Für produktivitätsorientierte Szenarien konzipiert, unterstützt es die Verarbeitung komplexer Aufgaben und die effiziente Textgenerierung, geeignet für professionelle Anwendungen."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und sowohl Text- als auch Bildinput unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und kostet über 60 % weniger als GPT-3.5 Turbo. Es behält die fortschrittliche Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Bietet eine Leistung, die mit Grok 2 vergleichbar ist, jedoch mit höherer Effizienz, Geschwindigkeit und Funktionalität."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K verfügt über eine außergewöhnliche Kontextverarbeitungsfähigkeit und kann bis zu 128K Kontextinformationen verarbeiten, was es besonders geeignet für die Analyse langer Texte und die Verarbeitung langfristiger logischer Zusammenhänge macht. Es bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Unterstützung für Zitate."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Tongyi Qianwen Code-Modell."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Das Tongyi Qianwen Code-Modell."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Das 7B-Modell von Tongyi Qianwen 2.5 ist öffentlich zugänglich."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Open-Source-Version des Tongyi Qianwen Code-Modells."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Die Open-Source-Version des Tongyi Qianwen Code-Modells."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Das Qwen-Math-Modell verfügt über starke Fähigkeiten zur Lösung mathematischer Probleme."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) eignet sich für präzise Anweisungsaufgaben und bietet hervorragende Sprachverarbeitungsfähigkeiten."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfangreichen Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittelgroßen Modelle beibehält."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, mehrsprachigen Anwendungen, Schlussfolgerungen und intelligenten Assistenten besonders gut abschneidet."
|
1074
1106
|
},
|