@lobehub/chat 1.16.7 → 1.16.9
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of @lobehub/chat might be problematic. Click here for more details.
- package/CHANGELOG.md +50 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/package.json +1 -1
- package/src/config/modelProviders/ai360.ts +34 -68
- package/src/config/modelProviders/anthropic.ts +57 -11
- package/src/config/modelProviders/azure.ts +12 -3
- package/src/config/modelProviders/baichuan.ts +33 -12
- package/src/config/modelProviders/bedrock.ts +88 -25
- package/src/config/modelProviders/deepseek.ts +14 -3
- package/src/config/modelProviders/fireworksai.ts +37 -5
- package/src/config/modelProviders/google.ts +69 -15
- package/src/config/modelProviders/groq.ts +55 -5
- package/src/config/modelProviders/minimax.ts +10 -6
- package/src/config/modelProviders/mistral.ts +19 -3
- package/src/config/modelProviders/moonshot.ts +11 -1
- package/src/config/modelProviders/novita.ts +24 -0
- package/src/config/modelProviders/ollama.ts +58 -1
- package/src/config/modelProviders/openai.ts +153 -18
- package/src/config/modelProviders/openrouter.ts +21 -1
- package/src/config/modelProviders/perplexity.ts +19 -3
- package/src/config/modelProviders/qwen.ts +11 -8
- package/src/config/modelProviders/siliconcloud.ts +34 -1
- package/src/config/modelProviders/spark.ts +16 -7
- package/src/config/modelProviders/stepfun.ts +13 -1
- package/src/config/modelProviders/taichu.ts +7 -2
- package/src/config/modelProviders/togetherai.ts +38 -2
- package/src/config/modelProviders/upstage.ts +11 -4
- package/src/config/modelProviders/zeroone.ts +5 -1
- package/src/config/modelProviders/zhipu.ts +20 -18
- package/src/const/discover.ts +1 -0
- package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +69 -6
- package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
- package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +56 -4
- package/src/server/routers/edge/config/index.test.ts +3 -7
- package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
- package/src/store/user/slices/modelList/action.test.ts +3 -7
- package/src/types/llm.ts +30 -1
- package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
- package/src/utils/parseModels.test.ts +1 -20
@@ -1,164 +1,200 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://docs.together.ai/docs/chat-models
|
4
|
-
// ref https://www.together.ai/pricing
|
3
|
+
// ref :https://docs.together.ai/docs/chat-models
|
4
|
+
// ref :https://www.together.ai/pricing
|
5
5
|
const TogetherAI: ModelProviderCard = {
|
6
6
|
chatModels: [
|
7
7
|
{
|
8
|
+
description:
|
9
|
+
'Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。',
|
8
10
|
displayName: 'Llama 3.1 8B Instruct Turbo',
|
9
11
|
enabled: true,
|
10
12
|
id: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
|
11
13
|
tokens: 131_072,
|
12
14
|
},
|
13
15
|
{
|
16
|
+
description:
|
17
|
+
'Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。',
|
14
18
|
displayName: 'Llama 3.1 70B Instruct Turbo',
|
15
19
|
enabled: true,
|
16
20
|
id: 'meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo',
|
17
21
|
tokens: 131_072,
|
18
22
|
},
|
19
23
|
{
|
24
|
+
description:
|
25
|
+
'405B 的 Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。',
|
20
26
|
displayName: 'Llama 3.1 405B Instruct Turbo',
|
21
27
|
enabled: true,
|
22
28
|
id: 'meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo',
|
23
29
|
tokens: 8192,
|
24
30
|
},
|
25
31
|
{
|
32
|
+
description: 'Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。',
|
26
33
|
displayName: 'Llama 3 8B Instruct Turbo',
|
27
34
|
id: 'meta-llama/Meta-Llama-3-8B-Instruct-Turbo',
|
28
35
|
tokens: 8192,
|
29
36
|
},
|
30
37
|
{
|
38
|
+
description:
|
39
|
+
'Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。',
|
31
40
|
displayName: 'Llama 3 70B Instruct Turbo',
|
32
41
|
id: 'meta-llama/Meta-Llama-3-70B-Instruct-Turbo',
|
33
42
|
tokens: 8192,
|
34
43
|
},
|
35
44
|
{
|
45
|
+
description: 'Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。',
|
36
46
|
displayName: 'Llama 3 8B Instruct Lite',
|
37
47
|
id: 'meta-llama/Meta-Llama-3-8B-Instruct-Lite',
|
38
48
|
tokens: 8192,
|
39
49
|
},
|
40
50
|
{
|
51
|
+
description: 'Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。',
|
41
52
|
displayName: 'Llama 3 70B Instruct Lite',
|
42
53
|
id: 'meta-llama/Meta-Llama-3-70B-Instruct-Lite',
|
43
54
|
tokens: 8192,
|
44
55
|
},
|
45
56
|
{
|
57
|
+
description: 'LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。',
|
46
58
|
displayName: 'LLaMA-3 Chat (8B)',
|
47
59
|
id: 'meta-llama/Llama-3-8b-chat-hf',
|
48
60
|
tokens: 8192,
|
49
61
|
},
|
50
62
|
{
|
63
|
+
description: 'LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。',
|
51
64
|
displayName: 'LLaMA-3 Chat (70B)',
|
52
65
|
id: 'meta-llama/Llama-3-70b-chat-hf',
|
53
66
|
tokens: 8192,
|
54
67
|
},
|
55
68
|
{
|
69
|
+
description: 'LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。',
|
56
70
|
displayName: 'LLaMA-2 Chat (13B)',
|
57
71
|
id: 'meta-llama/Llama-2-13b-chat-hf',
|
58
72
|
tokens: 4096,
|
59
73
|
},
|
60
74
|
{
|
75
|
+
description: 'Gemma 2 9B 由Google开发,提供高效的指令响应和综合能力。',
|
61
76
|
displayName: 'Gemma 2 9B',
|
62
77
|
enabled: true,
|
63
78
|
id: 'google/gemma-2-9b-it',
|
64
79
|
tokens: 8192,
|
65
80
|
},
|
66
81
|
{
|
82
|
+
description: 'Gemma 2 27B 是一款通用大语言模型,具有优异的性能和广泛的应用场景。',
|
67
83
|
displayName: 'Gemma 2 27B',
|
68
84
|
enabled: true,
|
69
85
|
id: 'google/gemma-2-27b-it',
|
70
86
|
tokens: 8192,
|
71
87
|
},
|
72
88
|
{
|
89
|
+
description: 'Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。',
|
73
90
|
displayName: 'Gemma Instruct (2B)',
|
74
91
|
id: 'google/gemma-2b-it',
|
75
92
|
tokens: 8192,
|
76
93
|
},
|
77
94
|
{
|
95
|
+
description: 'Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。',
|
78
96
|
displayName: 'Mistral (7B) Instruct v0.3',
|
79
97
|
enabled: true,
|
80
98
|
id: 'mistralai/Mistral-7B-Instruct-v0.3',
|
81
99
|
tokens: 32_768,
|
82
100
|
},
|
83
101
|
{
|
102
|
+
description: 'Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。',
|
84
103
|
displayName: 'Mistral (7B) Instruct v0.2',
|
85
104
|
id: 'mistralai/Mistral-7B-Instruct-v0.2',
|
86
105
|
tokens: 32_768,
|
87
106
|
},
|
88
107
|
{
|
108
|
+
description: 'Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。',
|
89
109
|
displayName: 'Mistral (7B) Instruct',
|
90
110
|
id: 'mistralai/Mistral-7B-Instruct-v0.1',
|
91
111
|
tokens: 8192,
|
92
112
|
},
|
93
113
|
{
|
114
|
+
description: 'Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。',
|
94
115
|
displayName: 'Mixtral-8x7B Instruct (46.7B)',
|
95
116
|
enabled: true,
|
96
117
|
id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
|
97
118
|
tokens: 32_768,
|
98
119
|
},
|
99
120
|
{
|
121
|
+
description: 'Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。',
|
100
122
|
displayName: 'Mixtral-8x22B Instruct (141B)',
|
101
123
|
enabled: true,
|
102
124
|
id: 'mistralai/Mixtral-8x22B-Instruct-v0.1',
|
103
125
|
tokens: 65_536,
|
104
126
|
},
|
105
127
|
{
|
128
|
+
description: 'DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。',
|
106
129
|
displayName: 'DeepSeek LLM Chat (67B)',
|
107
130
|
enabled: true,
|
108
131
|
id: 'deepseek-ai/deepseek-llm-67b-chat',
|
109
132
|
tokens: 4096,
|
110
133
|
},
|
111
134
|
{
|
135
|
+
description: 'Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。',
|
112
136
|
displayName: 'Qwen 2 Instruct (72B)',
|
113
137
|
enabled: true,
|
114
138
|
id: 'Qwen/Qwen2-72B-Instruct',
|
115
139
|
tokens: 32_768,
|
116
140
|
},
|
117
141
|
{
|
142
|
+
description: 'Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。',
|
118
143
|
displayName: 'Qwen 1.5 Chat (72B)',
|
119
144
|
id: 'Qwen/Qwen1.5-72B-Chat',
|
120
145
|
tokens: 32_768,
|
121
146
|
},
|
122
147
|
{
|
148
|
+
description: 'Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。',
|
123
149
|
displayName: 'Qwen 1.5 Chat (110B)',
|
124
150
|
id: 'Qwen/Qwen1.5-110B-Chat',
|
125
151
|
tokens: 32_768,
|
126
152
|
},
|
127
153
|
{
|
154
|
+
description: 'DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。',
|
128
155
|
displayName: 'DBRX Instruct',
|
129
156
|
id: 'databricks/dbrx-instruct',
|
130
157
|
tokens: 32_768,
|
131
158
|
},
|
132
159
|
{
|
160
|
+
description: 'Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。',
|
133
161
|
displayName: 'Upstage SOLAR Instruct v1 (11B)',
|
134
162
|
id: 'upstage/SOLAR-10.7B-Instruct-v1.0',
|
135
163
|
tokens: 4096,
|
136
164
|
},
|
137
165
|
{
|
166
|
+
description: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。',
|
138
167
|
displayName: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)',
|
139
168
|
id: 'NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO',
|
140
169
|
tokens: 32_768,
|
141
170
|
},
|
142
171
|
{
|
172
|
+
description: 'Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。',
|
143
173
|
displayName: 'Nous Hermes-2 Yi (34B)',
|
144
174
|
id: 'NousResearch/Nous-Hermes-2-Yi-34B',
|
145
175
|
tokens: 4096,
|
146
176
|
},
|
147
177
|
{
|
178
|
+
description: 'MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。',
|
148
179
|
displayName: 'MythoMax-L2 (13B)',
|
149
180
|
id: 'Gryphe/MythoMax-L2-13b',
|
150
181
|
tokens: 4096,
|
151
182
|
},
|
152
183
|
{
|
184
|
+
description: 'StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。',
|
153
185
|
displayName: 'StripedHyena Nous (7B)',
|
154
186
|
id: 'togethercomputer/StripedHyena-Nous-7B',
|
155
187
|
tokens: 32_768,
|
156
188
|
},
|
157
189
|
],
|
158
190
|
checkModel: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
|
191
|
+
description:
|
192
|
+
'Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。',
|
159
193
|
id: 'togetherai',
|
160
194
|
modelList: { showModelFetcher: true },
|
195
|
+
modelsUrl: 'https://docs.together.ai/docs/chat-models',
|
161
196
|
name: 'Together AI',
|
197
|
+
url: 'https://www.together.ai',
|
162
198
|
};
|
163
199
|
|
164
200
|
export default TogetherAI;
|
@@ -1,10 +1,11 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://developers.upstage.ai/docs/getting-started/models
|
3
|
+
// ref :https://developers.upstage.ai/docs/getting-started/models
|
4
4
|
const Upstage: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
-
description:
|
7
|
+
description:
|
8
|
+
'Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。',
|
8
9
|
displayName: 'Solar Pro',
|
9
10
|
enabled: true,
|
10
11
|
functionCall: false,
|
@@ -12,7 +13,8 @@ const Upstage: ModelProviderCard = {
|
|
12
13
|
tokens: 4096,
|
13
14
|
},
|
14
15
|
{
|
15
|
-
description:
|
16
|
+
description:
|
17
|
+
'Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。',
|
16
18
|
displayName: 'Solar Mini',
|
17
19
|
enabled: true,
|
18
20
|
functionCall: true,
|
@@ -20,7 +22,8 @@ const Upstage: ModelProviderCard = {
|
|
20
22
|
tokens: 32_768,
|
21
23
|
},
|
22
24
|
{
|
23
|
-
description:
|
25
|
+
description:
|
26
|
+
'Solar Mini (Ja) 扩展了 Solar Mini 的能力,专注于日语,同时在英语和韩语的使用中保持高效和卓越性能。',
|
24
27
|
displayName: 'Solar Mini (Ja)',
|
25
28
|
functionCall: false,
|
26
29
|
id: 'solar-1-mini-chat-ja',
|
@@ -28,9 +31,13 @@ const Upstage: ModelProviderCard = {
|
|
28
31
|
},
|
29
32
|
],
|
30
33
|
checkModel: 'solar-1-mini-chat',
|
34
|
+
description:
|
35
|
+
'Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。',
|
31
36
|
id: 'upstage',
|
32
37
|
modelList: { showModelFetcher: true },
|
38
|
+
modelsUrl: 'https://developers.upstage.ai/docs/getting-started/models',
|
33
39
|
name: 'Upstage',
|
40
|
+
url: 'https://upstage.ai',
|
34
41
|
};
|
35
42
|
|
36
43
|
export default Upstage;
|
@@ -1,6 +1,6 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
|
3
|
+
// ref :https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
|
4
4
|
const ZeroOne: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
@@ -71,8 +71,12 @@ const ZeroOne: ModelProviderCard = {
|
|
71
71
|
},
|
72
72
|
],
|
73
73
|
checkModel: 'yi-spark',
|
74
|
+
description:
|
75
|
+
'01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。',
|
74
76
|
id: 'zeroone',
|
77
|
+
modelsUrl: 'https://platform.lingyiwanwu.com/docs',
|
75
78
|
name: '01.AI',
|
79
|
+
url: 'https://01.ai',
|
76
80
|
};
|
77
81
|
|
78
82
|
export default ZeroOne;
|
@@ -1,13 +1,13 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://open.bigmodel.cn/dev/howuse/model
|
3
|
+
// ref :https://open.bigmodel.cn/dev/howuse/model
|
4
4
|
// api https://open.bigmodel.cn/dev/api#language
|
5
|
-
// ref https://open.bigmodel.cn/modelcenter/square
|
5
|
+
// ref :https://open.bigmodel.cn/modelcenter/square
|
6
6
|
const ZhiPu: ModelProviderCard = {
|
7
7
|
chatModels: [
|
8
8
|
{
|
9
9
|
description:
|
10
|
-
'GLM-4-AllTools
|
10
|
+
'GLM-4-AllTools 是一个多功能智能体模型,优化以支持复杂指令规划与工具调用,如网络浏览、代码解释和文本生成,适用于多任务执行。',
|
11
11
|
displayName: 'GLM-4-AllTools',
|
12
12
|
enabled: true,
|
13
13
|
functionCall: true,
|
@@ -15,7 +15,8 @@ const ZhiPu: ModelProviderCard = {
|
|
15
15
|
tokens: 128_000,
|
16
16
|
},
|
17
17
|
{
|
18
|
-
description:
|
18
|
+
description:
|
19
|
+
'GLM-4-Plus 作为高智能旗舰,具备强大的处理长文本和复杂任务的能力,性能全面提升。',
|
19
20
|
displayName: 'GLM-4-Plus',
|
20
21
|
enabled: true,
|
21
22
|
functionCall: true,
|
@@ -23,7 +24,7 @@ const ZhiPu: ModelProviderCard = {
|
|
23
24
|
tokens: 128_000,
|
24
25
|
},
|
25
26
|
{
|
26
|
-
description: '
|
27
|
+
description: 'GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。',
|
27
28
|
displayName: 'GLM-4-0520',
|
28
29
|
enabled: true,
|
29
30
|
functionCall: true,
|
@@ -31,14 +32,14 @@ const ZhiPu: ModelProviderCard = {
|
|
31
32
|
tokens: 128_000,
|
32
33
|
},
|
33
34
|
{
|
34
|
-
description: '
|
35
|
+
description: 'GLM-4 是发布于2024年1月的旧旗舰版本,目前已被更强的 GLM-4-0520 取代。',
|
35
36
|
displayName: 'GLM-4',
|
36
37
|
functionCall: true,
|
37
38
|
id: 'glm-4',
|
38
39
|
tokens: 128_000,
|
39
40
|
},
|
40
41
|
{
|
41
|
-
description: '
|
42
|
+
description: 'GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。',
|
42
43
|
displayName: 'GLM-4-Air',
|
43
44
|
enabled: true,
|
44
45
|
functionCall: true,
|
@@ -46,14 +47,14 @@ const ZhiPu: ModelProviderCard = {
|
|
46
47
|
tokens: 128_000,
|
47
48
|
},
|
48
49
|
{
|
49
|
-
description: 'GLM-4-Air
|
50
|
+
description: 'GLM-4-AirX 提供 GLM-4-Air 的高效版本,推理速度可达其2.6倍。',
|
50
51
|
displayName: 'GLM-4-AirX',
|
51
52
|
functionCall: true,
|
52
53
|
id: 'glm-4-airx',
|
53
54
|
tokens: 8192,
|
54
55
|
},
|
55
56
|
{
|
56
|
-
description: '
|
57
|
+
description: 'GLM-4-Long 支持超长文本输入,适合记忆型任务与大规模文档处理。',
|
57
58
|
displayName: 'GLM-4-Long',
|
58
59
|
enabled: true,
|
59
60
|
functionCall: true,
|
@@ -61,7 +62,7 @@ const ZhiPu: ModelProviderCard = {
|
|
61
62
|
tokens: 1_024_000,
|
62
63
|
},
|
63
64
|
{
|
64
|
-
description: '
|
65
|
+
description: 'GLM-4-Flash 是处理简单任务的理想选择,速度最快且价格最优惠。',
|
65
66
|
displayName: 'GLM-4-Flash',
|
66
67
|
enabled: true,
|
67
68
|
functionCall: true,
|
@@ -69,8 +70,7 @@ const ZhiPu: ModelProviderCard = {
|
|
69
70
|
tokens: 128_000,
|
70
71
|
},
|
71
72
|
{
|
72
|
-
description:
|
73
|
-
'视频和图像理解:具备视频内容和多图片的理解能力',
|
73
|
+
description: 'GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。',
|
74
74
|
displayName: 'GLM-4V-Plus',
|
75
75
|
enabled: true,
|
76
76
|
id: 'glm-4v-plus',
|
@@ -78,8 +78,7 @@ const ZhiPu: ModelProviderCard = {
|
|
78
78
|
vision: true,
|
79
79
|
},
|
80
80
|
{
|
81
|
-
description:
|
82
|
-
'图像理解:具备图像理解能力和推理能力',
|
81
|
+
description: 'GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。',
|
83
82
|
displayName: 'GLM-4V',
|
84
83
|
enabled: true,
|
85
84
|
id: 'glm-4v',
|
@@ -88,28 +87,31 @@ const ZhiPu: ModelProviderCard = {
|
|
88
87
|
},
|
89
88
|
{
|
90
89
|
description:
|
91
|
-
'CodeGeeX
|
90
|
+
'CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。',
|
92
91
|
displayName: 'CodeGeeX-4',
|
93
92
|
id: 'codegeex-4',
|
94
93
|
tokens: 128_000,
|
95
94
|
},
|
96
95
|
{
|
97
|
-
description:
|
98
|
-
'支持基于人设的角色扮演、超长多轮的记忆、千人千面的角色对话,广泛应用于情感陪伴、游戏智能NPC、网红/明星/影视剧IP分身、数字人/虚拟主播、文字冒险游戏等拟人对话或游戏场景。',
|
96
|
+
description: 'CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。',
|
99
97
|
displayName: 'CharGLM-3',
|
100
98
|
id: 'charglm-3',
|
101
99
|
tokens: 4096,
|
102
100
|
},
|
103
101
|
{
|
104
|
-
description: '
|
102
|
+
description: 'Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。',
|
105
103
|
displayName: 'Emohaa',
|
106
104
|
id: 'emohaa',
|
107
105
|
tokens: 8192,
|
108
106
|
},
|
109
107
|
],
|
110
108
|
checkModel: 'glm-4-flash',
|
109
|
+
description:
|
110
|
+
'智谱 AI 提供多模态与语言模型的开放平台,支持广泛的AI应用场景,包括文本处理、图像理解与编程辅助等。',
|
111
111
|
id: 'zhipu',
|
112
|
+
modelsUrl: 'https://open.bigmodel.cn/dev/howuse/model',
|
112
113
|
name: 'ZhiPu',
|
114
|
+
url: 'https://zhipuai.cn',
|
113
115
|
};
|
114
116
|
|
115
117
|
export default ZhiPu;
|
@@ -0,0 +1 @@
|
|
1
|
+
export const CNYtoUSD = 7.14;
|
@@ -7,24 +7,40 @@ exports[`LobeOpenAI > models > should get models 1`] = `
|
|
7
7
|
"displayName": "GPT-3.5 Turbo",
|
8
8
|
"functionCall": true,
|
9
9
|
"id": "gpt-3.5-turbo",
|
10
|
+
"pricing": {
|
11
|
+
"input": 0.5,
|
12
|
+
"output": 1.5,
|
13
|
+
},
|
10
14
|
"tokens": 16385,
|
11
15
|
},
|
12
16
|
{
|
13
|
-
"description": "Currently points to gpt-3.5-turbo-
|
17
|
+
"description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
|
14
18
|
"displayName": "GPT-3.5 Turbo 16K",
|
15
19
|
"id": "gpt-3.5-turbo-16k",
|
16
20
|
"legacy": true,
|
21
|
+
"pricing": {
|
22
|
+
"input": 3,
|
23
|
+
"output": 4,
|
24
|
+
},
|
17
25
|
"tokens": 16385,
|
18
26
|
},
|
19
27
|
{
|
20
|
-
"description": "
|
28
|
+
"description": "GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。",
|
21
29
|
"id": "gpt-3.5-turbo-16k-0613",
|
22
30
|
"legacy": true,
|
31
|
+
"pricing": {
|
32
|
+
"input": 3,
|
33
|
+
"output": 4,
|
34
|
+
},
|
23
35
|
"tokens": 16385,
|
24
36
|
},
|
25
37
|
{
|
26
|
-
"
|
38
|
+
"description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
|
27
39
|
"id": "gpt-4-1106-vision-preview",
|
40
|
+
"pricing": {
|
41
|
+
"input": 10,
|
42
|
+
"output": 30,
|
43
|
+
},
|
28
44
|
"tokens": 128000,
|
29
45
|
"vision": true,
|
30
46
|
},
|
@@ -32,68 +48,115 @@ exports[`LobeOpenAI > models > should get models 1`] = `
|
|
32
48
|
"id": "gpt-3.5-turbo-instruct-0914",
|
33
49
|
},
|
34
50
|
{
|
51
|
+
"description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
|
35
52
|
"displayName": "GPT-4 Turbo Preview (0125)",
|
36
53
|
"functionCall": true,
|
37
54
|
"id": "gpt-4-0125-preview",
|
55
|
+
"pricing": {
|
56
|
+
"input": 10,
|
57
|
+
"output": 30,
|
58
|
+
},
|
38
59
|
"tokens": 128000,
|
39
60
|
},
|
40
61
|
{
|
41
|
-
"description": "
|
62
|
+
"description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
|
42
63
|
"displayName": "GPT-4 Turbo Preview",
|
43
64
|
"functionCall": true,
|
44
65
|
"id": "gpt-4-turbo-preview",
|
66
|
+
"pricing": {
|
67
|
+
"input": 10,
|
68
|
+
"output": 30,
|
69
|
+
},
|
45
70
|
"tokens": 128000,
|
46
71
|
},
|
47
72
|
{
|
73
|
+
"description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
|
48
74
|
"displayName": "GPT-3.5 Turbo Instruct",
|
49
75
|
"id": "gpt-3.5-turbo-instruct",
|
76
|
+
"pricing": {
|
77
|
+
"input": 1.5,
|
78
|
+
"output": 2,
|
79
|
+
},
|
50
80
|
"tokens": 4096,
|
51
81
|
},
|
52
82
|
{
|
53
83
|
"id": "gpt-3.5-turbo-0301",
|
54
84
|
},
|
55
85
|
{
|
86
|
+
"description": "GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。",
|
56
87
|
"displayName": "GPT-3.5 Turbo (0613)",
|
57
88
|
"id": "gpt-3.5-turbo-0613",
|
58
89
|
"legacy": true,
|
90
|
+
"pricing": {
|
91
|
+
"input": 1.5,
|
92
|
+
"output": 2,
|
93
|
+
},
|
59
94
|
"tokens": 4096,
|
60
95
|
},
|
61
96
|
{
|
97
|
+
"description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
|
62
98
|
"displayName": "GPT-3.5 Turbo (1106)",
|
63
99
|
"functionCall": true,
|
64
100
|
"id": "gpt-3.5-turbo-1106",
|
101
|
+
"pricing": {
|
102
|
+
"input": 1,
|
103
|
+
"output": 2,
|
104
|
+
},
|
65
105
|
"tokens": 16385,
|
66
106
|
},
|
67
107
|
{
|
108
|
+
"description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
|
68
109
|
"displayName": "GPT-4 Turbo Preview (1106)",
|
69
110
|
"functionCall": true,
|
70
111
|
"id": "gpt-4-1106-preview",
|
112
|
+
"pricing": {
|
113
|
+
"input": 10,
|
114
|
+
"output": 30,
|
115
|
+
},
|
71
116
|
"tokens": 128000,
|
72
117
|
},
|
73
118
|
{
|
74
|
-
"description": "
|
119
|
+
"description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
|
75
120
|
"displayName": "GPT-4 Turbo Vision Preview",
|
76
121
|
"id": "gpt-4-vision-preview",
|
122
|
+
"pricing": {
|
123
|
+
"input": 10,
|
124
|
+
"output": 30,
|
125
|
+
},
|
77
126
|
"tokens": 128000,
|
78
127
|
"vision": true,
|
79
128
|
},
|
80
129
|
{
|
81
|
-
"description": "
|
130
|
+
"description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。",
|
82
131
|
"displayName": "GPT-4",
|
83
132
|
"functionCall": true,
|
84
133
|
"id": "gpt-4",
|
134
|
+
"pricing": {
|
135
|
+
"input": 30,
|
136
|
+
"output": 60,
|
137
|
+
},
|
85
138
|
"tokens": 8192,
|
86
139
|
},
|
87
140
|
{
|
141
|
+
"description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
|
88
142
|
"displayName": "GPT-3.5 Turbo (0125)",
|
89
143
|
"functionCall": true,
|
90
144
|
"id": "gpt-3.5-turbo-0125",
|
145
|
+
"pricing": {
|
146
|
+
"input": 0.5,
|
147
|
+
"output": 1.5,
|
148
|
+
},
|
91
149
|
"tokens": 16385,
|
92
150
|
},
|
93
151
|
{
|
152
|
+
"description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。",
|
94
153
|
"displayName": "GPT-4 (0613)",
|
95
154
|
"functionCall": true,
|
96
155
|
"id": "gpt-4-0613",
|
156
|
+
"pricing": {
|
157
|
+
"input": 30,
|
158
|
+
"output": 60,
|
159
|
+
},
|
97
160
|
"tokens": 8192,
|
98
161
|
},
|
99
162
|
]
|