@lobehub/chat 1.16.7 → 1.16.9
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of @lobehub/chat might be problematic. Click here for more details.
- package/CHANGELOG.md +50 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/package.json +1 -1
- package/src/config/modelProviders/ai360.ts +34 -68
- package/src/config/modelProviders/anthropic.ts +57 -11
- package/src/config/modelProviders/azure.ts +12 -3
- package/src/config/modelProviders/baichuan.ts +33 -12
- package/src/config/modelProviders/bedrock.ts +88 -25
- package/src/config/modelProviders/deepseek.ts +14 -3
- package/src/config/modelProviders/fireworksai.ts +37 -5
- package/src/config/modelProviders/google.ts +69 -15
- package/src/config/modelProviders/groq.ts +55 -5
- package/src/config/modelProviders/minimax.ts +10 -6
- package/src/config/modelProviders/mistral.ts +19 -3
- package/src/config/modelProviders/moonshot.ts +11 -1
- package/src/config/modelProviders/novita.ts +24 -0
- package/src/config/modelProviders/ollama.ts +58 -1
- package/src/config/modelProviders/openai.ts +153 -18
- package/src/config/modelProviders/openrouter.ts +21 -1
- package/src/config/modelProviders/perplexity.ts +19 -3
- package/src/config/modelProviders/qwen.ts +11 -8
- package/src/config/modelProviders/siliconcloud.ts +34 -1
- package/src/config/modelProviders/spark.ts +16 -7
- package/src/config/modelProviders/stepfun.ts +13 -1
- package/src/config/modelProviders/taichu.ts +7 -2
- package/src/config/modelProviders/togetherai.ts +38 -2
- package/src/config/modelProviders/upstage.ts +11 -4
- package/src/config/modelProviders/zeroone.ts +5 -1
- package/src/config/modelProviders/zhipu.ts +20 -18
- package/src/const/discover.ts +1 -0
- package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +69 -6
- package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
- package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +56 -4
- package/src/server/routers/edge/config/index.test.ts +3 -7
- package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
- package/src/store/user/slices/modelList/action.test.ts +3 -7
- package/src/types/llm.ts +30 -1
- package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
- package/src/utils/parseModels.test.ts +1 -20
@@ -1,208 +1,259 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://ollama.com/library
|
3
|
+
// ref: https://ollama.com/library
|
4
4
|
const Ollama: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
+
description:
|
8
|
+
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
|
7
9
|
displayName: 'Llama 3.1 8B',
|
8
10
|
enabled: true,
|
9
11
|
id: 'llama3.1',
|
10
12
|
tokens: 128_000,
|
11
13
|
},
|
12
14
|
{
|
15
|
+
description:
|
16
|
+
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
|
13
17
|
displayName: 'Llama 3.1 70B',
|
14
18
|
id: 'llama3.1:70b',
|
15
19
|
tokens: 128_000,
|
16
20
|
},
|
17
21
|
{
|
22
|
+
description:
|
23
|
+
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
|
18
24
|
displayName: 'Llama 3.1 405B',
|
19
25
|
id: 'llama3.1:405b',
|
20
26
|
tokens: 128_000,
|
21
27
|
},
|
22
28
|
{
|
29
|
+
description:
|
30
|
+
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
23
31
|
displayName: 'Code Llama 7B',
|
24
32
|
enabled: true,
|
25
33
|
id: 'codellama',
|
26
34
|
tokens: 16_384,
|
27
35
|
},
|
28
36
|
{
|
37
|
+
description:
|
38
|
+
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
29
39
|
displayName: 'Code Llama 13B',
|
30
40
|
id: 'codellama:13b',
|
31
41
|
tokens: 16_384,
|
32
42
|
},
|
33
43
|
{
|
44
|
+
description:
|
45
|
+
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
34
46
|
displayName: 'Code Llama 34B',
|
35
47
|
id: 'codellama:34b',
|
36
48
|
tokens: 16_384,
|
37
49
|
},
|
38
50
|
{
|
51
|
+
description:
|
52
|
+
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
39
53
|
displayName: 'Code Llama 70B',
|
40
54
|
id: 'codellama:70b',
|
41
55
|
tokens: 16_384,
|
42
56
|
},
|
43
57
|
{
|
58
|
+
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
|
44
59
|
displayName: 'Gemma 2 2B',
|
45
60
|
id: 'gemma2:2b',
|
46
61
|
tokens: 8192,
|
47
62
|
},
|
48
63
|
{
|
64
|
+
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
|
49
65
|
displayName: 'Gemma 2 9B',
|
50
66
|
enabled: true,
|
51
67
|
id: 'gemma2',
|
52
68
|
tokens: 8192,
|
53
69
|
},
|
54
70
|
{
|
71
|
+
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
|
55
72
|
displayName: 'Gemma 2 27B',
|
56
73
|
id: 'gemma2:27b',
|
57
74
|
tokens: 8192,
|
58
75
|
},
|
59
76
|
{
|
77
|
+
description: 'CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。',
|
60
78
|
displayName: 'CodeGemma 2B',
|
61
79
|
id: 'codegemma:2b',
|
62
80
|
tokens: 8192,
|
63
81
|
},
|
64
82
|
{
|
83
|
+
description: 'CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。',
|
65
84
|
displayName: 'CodeGemma 7B',
|
66
85
|
enabled: true,
|
67
86
|
id: 'codegemma',
|
68
87
|
tokens: 8192,
|
69
88
|
},
|
70
89
|
{
|
90
|
+
description: 'Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。',
|
71
91
|
displayName: 'Phi-3 3.8B',
|
72
92
|
enabled: true,
|
73
93
|
id: 'phi3',
|
74
94
|
tokens: 128_000,
|
75
95
|
},
|
76
96
|
{
|
97
|
+
description: 'Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。',
|
77
98
|
displayName: 'Phi-3 14B',
|
78
99
|
id: 'phi3:14b',
|
79
100
|
tokens: 128_000,
|
80
101
|
},
|
81
102
|
{
|
103
|
+
description:
|
104
|
+
'WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。',
|
82
105
|
displayName: 'WizardLM 2 7B',
|
83
106
|
enabled: true,
|
84
107
|
id: 'wizardlm2',
|
85
108
|
tokens: 32_768,
|
86
109
|
},
|
87
110
|
{
|
111
|
+
description:
|
112
|
+
'WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。',
|
88
113
|
displayName: 'WizardLM 2 8x22B',
|
89
114
|
id: 'wizardlm2:8x22b',
|
90
115
|
tokens: 65_536,
|
91
116
|
},
|
92
117
|
{
|
118
|
+
description: 'MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。',
|
93
119
|
displayName: 'MathΣtral 7B',
|
94
120
|
enabled: true,
|
95
121
|
id: 'mathstral',
|
96
122
|
tokens: 32_768,
|
97
123
|
},
|
98
124
|
{
|
125
|
+
description: 'Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。',
|
99
126
|
displayName: 'Mistral 7B',
|
100
127
|
enabled: true,
|
101
128
|
id: 'mistral',
|
102
129
|
tokens: 32_768,
|
103
130
|
},
|
104
131
|
{
|
132
|
+
description:
|
133
|
+
'Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。',
|
105
134
|
displayName: 'Mixtral 8x7B',
|
106
135
|
enabled: true,
|
107
136
|
id: 'mixtral',
|
108
137
|
tokens: 32_768,
|
109
138
|
},
|
110
139
|
{
|
140
|
+
description:
|
141
|
+
'Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。',
|
111
142
|
displayName: 'Mixtral 8x22B',
|
112
143
|
id: 'mixtral:8x22b',
|
113
144
|
tokens: 65_536,
|
114
145
|
},
|
115
146
|
{
|
147
|
+
description:
|
148
|
+
'Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。',
|
116
149
|
displayName: 'Mixtral Large 123B',
|
117
150
|
enabled: true,
|
118
151
|
id: 'mistral-large',
|
119
152
|
tokens: 128_000,
|
120
153
|
},
|
121
154
|
{
|
155
|
+
description: 'Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。',
|
122
156
|
displayName: 'Mixtral Nemo 12B',
|
123
157
|
enabled: true,
|
124
158
|
id: 'mistral-nemo',
|
125
159
|
tokens: 128_000,
|
126
160
|
},
|
127
161
|
{
|
162
|
+
description: 'Codestral 是 Mistral AI 的首款代码模型,为代码生成任务提供优异支持。',
|
128
163
|
displayName: 'Codestral 22B',
|
129
164
|
enabled: true,
|
130
165
|
id: 'codestral',
|
131
166
|
tokens: 32_768,
|
132
167
|
},
|
133
168
|
{
|
169
|
+
description: 'Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。',
|
134
170
|
displayName: 'Aya 23 8B',
|
135
171
|
enabled: true,
|
136
172
|
id: 'aya',
|
137
173
|
tokens: 8192,
|
138
174
|
},
|
139
175
|
{
|
176
|
+
description: 'Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。',
|
140
177
|
displayName: 'Aya 23 35B',
|
141
178
|
id: 'aya:35b',
|
142
179
|
tokens: 8192,
|
143
180
|
},
|
144
181
|
{
|
182
|
+
description: 'Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。',
|
145
183
|
displayName: 'Command R 35B',
|
146
184
|
enabled: true,
|
147
185
|
id: 'command-r',
|
148
186
|
tokens: 131_072,
|
149
187
|
},
|
150
188
|
{
|
189
|
+
description: 'Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。',
|
151
190
|
displayName: 'Command R+ 104B',
|
152
191
|
enabled: true,
|
153
192
|
id: 'command-r-plus',
|
154
193
|
tokens: 131_072,
|
155
194
|
},
|
156
195
|
{
|
196
|
+
description: 'DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。',
|
157
197
|
displayName: 'DeepSeek V2 16B',
|
158
198
|
enabled: true,
|
159
199
|
id: 'deepseek-v2',
|
160
200
|
tokens: 32_768,
|
161
201
|
},
|
162
202
|
{
|
203
|
+
description: 'DeepSeek V2 236B 是 DeepSeek 的设计代码模型,提供强大的代码生成能力。',
|
163
204
|
displayName: 'DeepSeek V2 236B',
|
164
205
|
id: 'deepseek-v2:236b',
|
165
206
|
tokens: 128_000,
|
166
207
|
},
|
167
208
|
{
|
209
|
+
description:
|
210
|
+
'DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。',
|
168
211
|
displayName: 'DeepSeek Coder V2 16B',
|
169
212
|
enabled: true,
|
170
213
|
id: 'deepseek-coder-v2',
|
171
214
|
tokens: 128_000,
|
172
215
|
},
|
173
216
|
{
|
217
|
+
description:
|
218
|
+
'DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。',
|
174
219
|
displayName: 'DeepSeek Coder V2 236B',
|
175
220
|
id: 'deepseek-coder-v2:236b',
|
176
221
|
tokens: 128_000,
|
177
222
|
},
|
178
223
|
{
|
224
|
+
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
179
225
|
displayName: 'Qwen2 0.5B',
|
180
226
|
id: 'qwen2:0.5b',
|
181
227
|
tokens: 128_000,
|
182
228
|
},
|
183
229
|
{
|
230
|
+
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
184
231
|
displayName: 'Qwen2 1.5B',
|
185
232
|
id: 'qwen2:1.5b',
|
186
233
|
tokens: 128_000,
|
187
234
|
},
|
188
235
|
{
|
236
|
+
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
189
237
|
displayName: 'Qwen2 7B',
|
190
238
|
enabled: true,
|
191
239
|
id: 'qwen2',
|
192
240
|
tokens: 128_000,
|
193
241
|
},
|
194
242
|
{
|
243
|
+
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
195
244
|
displayName: 'Qwen2 72B',
|
196
245
|
id: 'qwen2:72b',
|
197
246
|
tokens: 128_000,
|
198
247
|
},
|
199
248
|
{
|
249
|
+
description: 'CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。',
|
200
250
|
displayName: 'CodeQwen1.5 7B',
|
201
251
|
enabled: true,
|
202
252
|
id: 'codeqwen',
|
203
253
|
tokens: 65_536,
|
204
254
|
},
|
205
255
|
{
|
256
|
+
description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
|
206
257
|
displayName: 'LLaVA 7B',
|
207
258
|
enabled: true,
|
208
259
|
id: 'llava',
|
@@ -210,12 +261,14 @@ const Ollama: ModelProviderCard = {
|
|
210
261
|
vision: true,
|
211
262
|
},
|
212
263
|
{
|
264
|
+
description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
|
213
265
|
displayName: 'LLaVA 13B',
|
214
266
|
id: 'llava:13b',
|
215
267
|
tokens: 4096,
|
216
268
|
vision: true,
|
217
269
|
},
|
218
270
|
{
|
271
|
+
description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
|
219
272
|
displayName: 'LLaVA 34B',
|
220
273
|
id: 'llava:34b',
|
221
274
|
tokens: 4096,
|
@@ -223,10 +276,14 @@ const Ollama: ModelProviderCard = {
|
|
223
276
|
},
|
224
277
|
],
|
225
278
|
defaultShowBrowserRequest: true,
|
279
|
+
description:
|
280
|
+
'Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。',
|
226
281
|
id: 'ollama',
|
227
282
|
modelList: { showModelFetcher: true },
|
283
|
+
modelsUrl: 'https://ollama.com/library',
|
228
284
|
name: 'Ollama',
|
229
285
|
showApiKey: false,
|
286
|
+
url: 'https://ollama.com',
|
230
287
|
};
|
231
288
|
|
232
289
|
export default Ollama;
|
@@ -1,118 +1,209 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref:
|
4
|
-
// https://platform.openai.com/docs/models
|
5
|
-
// https://platform.openai.com/docs/deprecations
|
3
|
+
// ref: https://platform.openai.com/docs/deprecations
|
6
4
|
const OpenAI: ModelProviderCard = {
|
7
5
|
chatModels: [
|
8
6
|
{
|
9
|
-
description:
|
7
|
+
description:
|
8
|
+
'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
|
10
9
|
displayName: 'GPT-4o mini',
|
11
10
|
enabled: true,
|
12
11
|
functionCall: true,
|
13
12
|
id: 'gpt-4o-mini',
|
14
13
|
maxOutput: 16_385,
|
14
|
+
pricing: {
|
15
|
+
input: 0.15,
|
16
|
+
output: 0.6,
|
17
|
+
},
|
15
18
|
tokens: 128_000,
|
16
19
|
vision: true,
|
17
20
|
},
|
18
21
|
{
|
19
|
-
description:
|
22
|
+
description:
|
23
|
+
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
20
24
|
displayName: 'GPT-4o',
|
21
25
|
enabled: true,
|
22
26
|
functionCall: true,
|
23
27
|
id: 'gpt-4o',
|
28
|
+
pricing: {
|
29
|
+
input: 5,
|
30
|
+
output: 15,
|
31
|
+
},
|
24
32
|
tokens: 128_000,
|
25
33
|
vision: true,
|
26
34
|
},
|
27
35
|
{
|
28
|
-
description:
|
36
|
+
description:
|
37
|
+
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
29
38
|
displayName: 'GPT-4o (240806)',
|
30
39
|
enabled: true,
|
31
40
|
functionCall: true,
|
32
41
|
id: 'gpt-4o-2024-08-06',
|
42
|
+
pricing: {
|
43
|
+
input: 2.5,
|
44
|
+
output: 10,
|
45
|
+
},
|
46
|
+
tokens: 128_000,
|
47
|
+
vision: true,
|
48
|
+
},
|
49
|
+
{
|
50
|
+
description:
|
51
|
+
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
52
|
+
displayName: 'GPT-4o (240513)',
|
53
|
+
functionCall: true,
|
54
|
+
id: 'gpt-4o-2024-05-13',
|
55
|
+
pricing: {
|
56
|
+
input: 5,
|
57
|
+
output: 15,
|
58
|
+
},
|
33
59
|
tokens: 128_000,
|
34
60
|
vision: true,
|
35
61
|
},
|
36
62
|
{
|
37
|
-
description:
|
63
|
+
description:
|
64
|
+
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
38
65
|
displayName: 'ChatGPT-4o',
|
39
66
|
enabled: true,
|
40
67
|
id: 'chatgpt-4o-latest',
|
68
|
+
pricing: {
|
69
|
+
input: 5,
|
70
|
+
output: 15,
|
71
|
+
},
|
41
72
|
tokens: 128_000,
|
42
73
|
vision: true,
|
43
74
|
},
|
44
75
|
{
|
45
|
-
description:
|
76
|
+
description:
|
77
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
46
78
|
displayName: 'GPT-4 Turbo',
|
47
79
|
functionCall: true,
|
48
80
|
id: 'gpt-4-turbo',
|
81
|
+
pricing: {
|
82
|
+
input: 10,
|
83
|
+
output: 30,
|
84
|
+
},
|
49
85
|
tokens: 128_000,
|
50
86
|
vision: true,
|
51
87
|
},
|
52
88
|
{
|
53
|
-
description:
|
89
|
+
description:
|
90
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
54
91
|
displayName: 'GPT-4 Turbo Vision (240409)',
|
55
92
|
functionCall: true,
|
56
93
|
id: 'gpt-4-turbo-2024-04-09',
|
94
|
+
pricing: {
|
95
|
+
input: 10,
|
96
|
+
output: 30,
|
97
|
+
},
|
57
98
|
tokens: 128_000,
|
58
99
|
vision: true,
|
59
100
|
},
|
60
101
|
{
|
61
|
-
description:
|
102
|
+
description:
|
103
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
62
104
|
displayName: 'GPT-4 Turbo Preview',
|
63
105
|
functionCall: true,
|
64
106
|
id: 'gpt-4-turbo-preview',
|
107
|
+
pricing: {
|
108
|
+
input: 10,
|
109
|
+
output: 30,
|
110
|
+
},
|
65
111
|
tokens: 128_000,
|
66
112
|
},
|
67
113
|
{
|
114
|
+
description:
|
115
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
68
116
|
displayName: 'GPT-4 Turbo Preview (0125)',
|
69
117
|
functionCall: true,
|
70
118
|
id: 'gpt-4-0125-preview',
|
119
|
+
pricing: {
|
120
|
+
input: 10,
|
121
|
+
output: 30,
|
122
|
+
},
|
71
123
|
tokens: 128_000,
|
72
124
|
},
|
73
125
|
{
|
74
|
-
description:
|
126
|
+
description:
|
127
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
|
75
128
|
displayName: 'GPT-4 Turbo Vision Preview',
|
76
129
|
id: 'gpt-4-vision-preview',
|
130
|
+
pricing: {
|
131
|
+
input: 10,
|
132
|
+
output: 30,
|
133
|
+
},
|
77
134
|
tokens: 128_000,
|
78
135
|
vision: true,
|
79
136
|
},
|
80
137
|
{
|
81
|
-
|
138
|
+
description:
|
139
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
|
82
140
|
id: 'gpt-4-1106-vision-preview',
|
141
|
+
pricing: {
|
142
|
+
input: 10,
|
143
|
+
output: 30,
|
144
|
+
},
|
83
145
|
tokens: 128_000,
|
84
146
|
vision: true,
|
85
147
|
},
|
86
148
|
{
|
149
|
+
description:
|
150
|
+
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
87
151
|
displayName: 'GPT-4 Turbo Preview (1106)',
|
88
152
|
functionCall: true,
|
89
153
|
id: 'gpt-4-1106-preview',
|
154
|
+
pricing: {
|
155
|
+
input: 10,
|
156
|
+
output: 30,
|
157
|
+
},
|
90
158
|
tokens: 128_000,
|
91
159
|
},
|
92
160
|
{
|
93
|
-
description:
|
161
|
+
description:
|
162
|
+
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
94
163
|
displayName: 'GPT-4',
|
95
164
|
functionCall: true,
|
96
165
|
id: 'gpt-4',
|
166
|
+
pricing: {
|
167
|
+
input: 30,
|
168
|
+
output: 60,
|
169
|
+
},
|
97
170
|
tokens: 8192,
|
98
171
|
},
|
99
172
|
{
|
173
|
+
description:
|
174
|
+
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
100
175
|
displayName: 'GPT-4 (0613)',
|
101
176
|
functionCall: true,
|
102
177
|
id: 'gpt-4-0613',
|
178
|
+
pricing: {
|
179
|
+
input: 30,
|
180
|
+
output: 60,
|
181
|
+
},
|
103
182
|
tokens: 8192,
|
104
183
|
},
|
105
184
|
{
|
106
|
-
description:
|
185
|
+
description:
|
186
|
+
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。', // Will be discontinued on June 6, 2025
|
107
187
|
displayName: 'GPT-4 32K',
|
108
188
|
functionCall: true,
|
109
189
|
id: 'gpt-4-32k',
|
190
|
+
pricing: {
|
191
|
+
input: 60,
|
192
|
+
output: 120,
|
193
|
+
},
|
110
194
|
tokens: 32_768,
|
111
195
|
},
|
112
196
|
{
|
113
|
-
|
197
|
+
// Will be discontinued on June 6, 2025
|
198
|
+
description:
|
199
|
+
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
200
|
+
displayName: 'GPT-4 32K (0613)',
|
114
201
|
functionCall: true,
|
115
202
|
id: 'gpt-4-32k-0613',
|
203
|
+
pricing: {
|
204
|
+
input: 60,
|
205
|
+
output: 120,
|
206
|
+
},
|
116
207
|
tokens: 32_768,
|
117
208
|
},
|
118
209
|
{
|
@@ -121,50 +212,94 @@ const OpenAI: ModelProviderCard = {
|
|
121
212
|
displayName: 'GPT-3.5 Turbo',
|
122
213
|
functionCall: true,
|
123
214
|
id: 'gpt-3.5-turbo',
|
215
|
+
pricing: {
|
216
|
+
input: 0.5,
|
217
|
+
output: 1.5,
|
218
|
+
},
|
124
219
|
tokens: 16_385,
|
125
220
|
},
|
126
221
|
{
|
222
|
+
description:
|
223
|
+
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
127
224
|
displayName: 'GPT-3.5 Turbo (0125)',
|
128
225
|
functionCall: true,
|
129
226
|
id: 'gpt-3.5-turbo-0125',
|
227
|
+
pricing: {
|
228
|
+
input: 0.5,
|
229
|
+
output: 1.5,
|
230
|
+
},
|
130
231
|
tokens: 16_385,
|
131
232
|
},
|
132
233
|
{
|
234
|
+
description:
|
235
|
+
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
133
236
|
displayName: 'GPT-3.5 Turbo (1106)',
|
134
237
|
functionCall: true,
|
135
238
|
id: 'gpt-3.5-turbo-1106',
|
239
|
+
pricing: {
|
240
|
+
input: 1,
|
241
|
+
output: 2,
|
242
|
+
},
|
136
243
|
tokens: 16_385,
|
137
244
|
},
|
138
245
|
{
|
246
|
+
description:
|
247
|
+
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
139
248
|
displayName: 'GPT-3.5 Turbo Instruct',
|
140
249
|
id: 'gpt-3.5-turbo-instruct',
|
250
|
+
pricing: {
|
251
|
+
input: 1.5,
|
252
|
+
output: 2,
|
253
|
+
},
|
141
254
|
tokens: 4096,
|
142
255
|
},
|
143
256
|
{
|
144
|
-
description:
|
257
|
+
description:
|
258
|
+
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125', // Will be discontinued on September 13, 2024
|
259
|
+
|
145
260
|
displayName: 'GPT-3.5 Turbo 16K',
|
146
261
|
id: 'gpt-3.5-turbo-16k',
|
147
262
|
legacy: true,
|
263
|
+
pricing: {
|
264
|
+
input: 3,
|
265
|
+
output: 4,
|
266
|
+
},
|
148
267
|
tokens: 16_385,
|
149
268
|
},
|
150
269
|
{
|
151
|
-
|
270
|
+
description:
|
271
|
+
'GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。',
|
272
|
+
displayName: 'GPT-3.5 Turbo (0613)',
|
273
|
+
// Will be discontinued on September 13, 2024
|
152
274
|
id: 'gpt-3.5-turbo-0613',
|
153
275
|
legacy: true,
|
276
|
+
pricing: {
|
277
|
+
input: 1.5,
|
278
|
+
output: 2,
|
279
|
+
},
|
154
280
|
tokens: 4096,
|
155
281
|
},
|
156
282
|
{
|
157
|
-
description:
|
283
|
+
description:
|
284
|
+
'GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。', // Will be discontinued on September 13, 2024
|
158
285
|
id: 'gpt-3.5-turbo-16k-0613',
|
159
286
|
legacy: true,
|
287
|
+
pricing: {
|
288
|
+
input: 3,
|
289
|
+
output: 4,
|
290
|
+
},
|
160
291
|
tokens: 16_385,
|
161
292
|
},
|
162
293
|
],
|
163
294
|
checkModel: 'gpt-4o-mini',
|
295
|
+
description:
|
296
|
+
'OpenAI 是全球领先的人工智能研究机构,其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性,广泛用于研究、商业和创新应用。',
|
164
297
|
enabled: true,
|
165
298
|
id: 'openai',
|
166
299
|
modelList: { showModelFetcher: true },
|
300
|
+
modelsUrl: 'https://platform.openai.com/docs/models',
|
167
301
|
name: 'OpenAI',
|
302
|
+
url: 'https://openai.com',
|
168
303
|
};
|
169
304
|
|
170
305
|
export default OpenAI;
|