@lobehub/lobehub 2.0.0-next.15 → 2.0.0-next.16
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/self-hosting/advanced/feature-flags.mdx +0 -1
- package/docs/self-hosting/advanced/feature-flags.zh-CN.mdx +0 -1
- package/package.json +1 -1
- package/packages/types/src/serverConfig.ts +2 -6
- package/src/app/[variants]/(auth)/signup/[[...signup]]/page.tsx +1 -8
- package/src/app/[variants]/(main)/(mobile)/me/(home)/features/UserBanner.tsx +3 -6
- package/src/app/[variants]/(main)/labs/components/LabCard.tsx +3 -1
- package/src/app/[variants]/(main)/settings/provider/detail/azure/index.tsx +5 -7
- package/src/components/InvalidAPIKey/APIKeyForm/Bedrock.tsx +8 -13
- package/src/config/featureFlags/schema.test.ts +0 -2
- package/src/config/featureFlags/schema.ts +0 -6
- package/src/config/modelProviders/ai21.ts +1 -16
- package/src/config/modelProviders/ai302.ts +1 -128
- package/src/config/modelProviders/ai360.ts +1 -32
- package/src/config/modelProviders/anthropic.ts +1 -71
- package/src/config/modelProviders/azure.ts +1 -51
- package/src/config/modelProviders/baichuan.ts +1 -57
- package/src/config/modelProviders/bedrock.ts +1 -276
- package/src/config/modelProviders/cloudflare.ts +1 -64
- package/src/config/modelProviders/deepseek.ts +1 -19
- package/src/config/modelProviders/fireworksai.ts +1 -174
- package/src/config/modelProviders/giteeai.ts +1 -135
- package/src/config/modelProviders/github.ts +1 -254
- package/src/config/modelProviders/google.ts +1 -130
- package/src/config/modelProviders/groq.ts +1 -119
- package/src/config/modelProviders/higress.ts +1 -1713
- package/src/config/modelProviders/huggingface.ts +1 -54
- package/src/config/modelProviders/hunyuan.ts +1 -83
- package/src/config/modelProviders/infiniai.ts +1 -74
- package/src/config/modelProviders/internlm.ts +1 -20
- package/src/config/modelProviders/mistral.ts +1 -95
- package/src/config/modelProviders/modelscope.ts +1 -27
- package/src/config/modelProviders/moonshot.ts +1 -29
- package/src/config/modelProviders/novita.ts +1 -105
- package/src/config/modelProviders/ollama.ts +1 -325
- package/src/config/modelProviders/openai.ts +1 -242
- package/src/config/modelProviders/openrouter.ts +1 -240
- package/src/config/modelProviders/perplexity.ts +1 -45
- package/src/config/modelProviders/ppio.ts +1 -152
- package/src/config/modelProviders/qiniu.ts +1 -18
- package/src/config/modelProviders/qwen.ts +1 -245
- package/src/config/modelProviders/search1api.ts +1 -34
- package/src/config/modelProviders/sensenova.ts +1 -69
- package/src/config/modelProviders/siliconcloud.ts +1 -417
- package/src/config/modelProviders/spark.ts +1 -59
- package/src/config/modelProviders/stepfun.ts +1 -98
- package/src/config/modelProviders/taichu.ts +1 -18
- package/src/config/modelProviders/togetherai.ts +1 -274
- package/src/config/modelProviders/upstage.ts +1 -28
- package/src/config/modelProviders/wenxin.ts +1 -140
- package/src/config/modelProviders/xai.ts +1 -38
- package/src/config/modelProviders/zeroone.ts +1 -81
- package/src/config/modelProviders/zhipu.ts +1 -108
- package/src/helpers/isCanUseFC.ts +0 -8
- package/src/hooks/useEnabledChatModels.ts +0 -8
- package/src/hooks/useModelContextWindowTokens.ts +0 -8
- package/src/hooks/useModelHasContextWindowToken.ts +1 -10
- package/src/hooks/useModelSupportFiles.ts +1 -11
- package/src/hooks/useModelSupportReasoning.ts +1 -11
- package/src/hooks/useModelSupportToolUse.ts +1 -11
- package/src/hooks/useModelSupportVision.ts +1 -11
- package/src/layout/AuthProvider/Clerk/index.tsx +2 -16
- package/src/server/globalConfig/index.ts +0 -23
- package/src/server/routers/lambda/config/__snapshots__/index.test.ts.snap +175 -12
- package/src/server/routers/lambda/config/index.test.ts +36 -28
- package/src/services/chat/chat.test.ts +12 -0
- package/src/services/chat/helper.ts +7 -31
- package/src/services/models.ts +2 -11
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +41 -14
- package/src/store/global/store.ts +1 -7
- package/src/store/user/initialState.ts +1 -7
- package/src/store/user/selectors.ts +1 -5
- package/src/store/user/slices/common/action.ts +5 -4
- package/src/store/user/slices/settings/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/keyVaults.ts +21 -0
- package/src/store/user/store.ts +0 -3
- package/src/tools/web-browsing/Render/Search/ConfigForm/Form.tsx +1 -1
- package/packages/utils/src/_deprecated/__snapshots__/parseModels.test.ts.snap +0 -104
- package/packages/utils/src/_deprecated/parseModels.test.ts +0 -287
- package/packages/utils/src/_deprecated/parseModels.ts +0 -165
- package/src/hooks/_header.ts +0 -23
- package/src/server/globalConfig/_deprecated.test.ts +0 -92
- package/src/server/globalConfig/_deprecated.ts +0 -41
- package/src/store/global/actions/clientDb.ts +0 -67
- package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +0 -12
- package/src/store/user/slices/modelList/action.test.ts +0 -359
- package/src/store/user/slices/modelList/action.ts +0 -223
- package/src/store/user/slices/modelList/initialState.ts +0 -15
- package/src/store/user/slices/modelList/reducers/customModelCard.test.ts +0 -204
- package/src/store/user/slices/modelList/reducers/customModelCard.ts +0 -64
- package/src/store/user/slices/modelList/selectors/index.ts +0 -3
- package/src/store/user/slices/modelList/selectors/keyVaults.test.ts +0 -201
- package/src/store/user/slices/modelList/selectors/keyVaults.ts +0 -50
- package/src/store/user/slices/modelList/selectors/modelConfig.test.ts +0 -219
- package/src/store/user/slices/modelList/selectors/modelConfig.ts +0 -95
- package/src/store/user/slices/modelList/selectors/modelProvider.test.ts +0 -138
- package/src/store/user/slices/modelList/selectors/modelProvider.ts +0 -170
|
@@ -1,331 +1,7 @@
|
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
|
2
2
|
|
|
3
3
|
const Ollama: ModelProviderCard = {
|
|
4
|
-
chatModels: [
|
|
5
|
-
{
|
|
6
|
-
contextWindowTokens: 128_000,
|
|
7
|
-
description:
|
|
8
|
-
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
|
|
9
|
-
displayName: 'Llama 3.1 8B',
|
|
10
|
-
enabled: true,
|
|
11
|
-
functionCall: true,
|
|
12
|
-
id: 'llama3.1',
|
|
13
|
-
},
|
|
14
|
-
{
|
|
15
|
-
contextWindowTokens: 128_000,
|
|
16
|
-
description:
|
|
17
|
-
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
|
|
18
|
-
displayName: 'Llama 3.1 70B',
|
|
19
|
-
id: 'llama3.1:70b',
|
|
20
|
-
},
|
|
21
|
-
{
|
|
22
|
-
contextWindowTokens: 128_000,
|
|
23
|
-
description:
|
|
24
|
-
'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
|
|
25
|
-
displayName: 'Llama 3.1 405B',
|
|
26
|
-
id: 'llama3.1:405b',
|
|
27
|
-
},
|
|
28
|
-
{
|
|
29
|
-
contextWindowTokens: 16_384,
|
|
30
|
-
description:
|
|
31
|
-
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
|
32
|
-
displayName: 'Code Llama 7B',
|
|
33
|
-
enabled: true,
|
|
34
|
-
id: 'codellama',
|
|
35
|
-
},
|
|
36
|
-
{
|
|
37
|
-
contextWindowTokens: 16_384,
|
|
38
|
-
description:
|
|
39
|
-
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
|
40
|
-
displayName: 'Code Llama 13B',
|
|
41
|
-
id: 'codellama:13b',
|
|
42
|
-
},
|
|
43
|
-
{
|
|
44
|
-
contextWindowTokens: 16_384,
|
|
45
|
-
description:
|
|
46
|
-
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
|
47
|
-
displayName: 'Code Llama 34B',
|
|
48
|
-
id: 'codellama:34b',
|
|
49
|
-
},
|
|
50
|
-
{
|
|
51
|
-
contextWindowTokens: 16_384,
|
|
52
|
-
description:
|
|
53
|
-
'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
|
|
54
|
-
displayName: 'Code Llama 70B',
|
|
55
|
-
id: 'codellama:70b',
|
|
56
|
-
},
|
|
57
|
-
{
|
|
58
|
-
contextWindowTokens: 128_000,
|
|
59
|
-
description: 'QwQ 是一个实验研究模型,专注于提高 AI 推理能力。',
|
|
60
|
-
displayName: 'QwQ 32B',
|
|
61
|
-
enabled: true,
|
|
62
|
-
functionCall: true,
|
|
63
|
-
id: 'qwq',
|
|
64
|
-
releasedAt: '2024-11-28',
|
|
65
|
-
},
|
|
66
|
-
{
|
|
67
|
-
contextWindowTokens: 128_000,
|
|
68
|
-
description: 'Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
69
|
-
displayName: 'Qwen2.5 0.5B',
|
|
70
|
-
id: 'qwen2.5:0.5b',
|
|
71
|
-
},
|
|
72
|
-
{
|
|
73
|
-
contextWindowTokens: 128_000,
|
|
74
|
-
description: 'Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
75
|
-
displayName: 'Qwen2.5 1.5B',
|
|
76
|
-
id: 'qwen2.5:1.5b',
|
|
77
|
-
},
|
|
78
|
-
{
|
|
79
|
-
contextWindowTokens: 128_000,
|
|
80
|
-
description: 'Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
81
|
-
displayName: 'Qwen2.5 7B',
|
|
82
|
-
enabled: true,
|
|
83
|
-
functionCall: true,
|
|
84
|
-
id: 'qwen2.5',
|
|
85
|
-
},
|
|
86
|
-
{
|
|
87
|
-
contextWindowTokens: 128_000,
|
|
88
|
-
description: 'Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
89
|
-
displayName: 'Qwen2.5 72B',
|
|
90
|
-
id: 'qwen2.5:72b',
|
|
91
|
-
},
|
|
92
|
-
{
|
|
93
|
-
contextWindowTokens: 65_536,
|
|
94
|
-
description: 'CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。',
|
|
95
|
-
displayName: 'CodeQwen1.5 7B',
|
|
96
|
-
functionCall: true,
|
|
97
|
-
id: 'codeqwen',
|
|
98
|
-
},
|
|
99
|
-
{
|
|
100
|
-
contextWindowTokens: 128_000,
|
|
101
|
-
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
102
|
-
displayName: 'Qwen2 0.5B',
|
|
103
|
-
functionCall: true,
|
|
104
|
-
id: 'qwen2:0.5b',
|
|
105
|
-
},
|
|
106
|
-
{
|
|
107
|
-
contextWindowTokens: 128_000,
|
|
108
|
-
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
109
|
-
displayName: 'Qwen2 1.5B',
|
|
110
|
-
functionCall: true,
|
|
111
|
-
id: 'qwen2:1.5b',
|
|
112
|
-
},
|
|
113
|
-
{
|
|
114
|
-
contextWindowTokens: 128_000,
|
|
115
|
-
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
116
|
-
displayName: 'Qwen2 7B',
|
|
117
|
-
functionCall: true,
|
|
118
|
-
id: 'qwen2',
|
|
119
|
-
},
|
|
120
|
-
{
|
|
121
|
-
contextWindowTokens: 128_000,
|
|
122
|
-
description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
|
|
123
|
-
displayName: 'Qwen2 72B',
|
|
124
|
-
functionCall: true,
|
|
125
|
-
id: 'qwen2:72b',
|
|
126
|
-
},
|
|
127
|
-
{
|
|
128
|
-
contextWindowTokens: 8192,
|
|
129
|
-
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
|
|
130
|
-
displayName: 'Gemma 2 2B',
|
|
131
|
-
id: 'gemma2:2b',
|
|
132
|
-
},
|
|
133
|
-
{
|
|
134
|
-
contextWindowTokens: 8192,
|
|
135
|
-
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
|
|
136
|
-
displayName: 'Gemma 2 9B',
|
|
137
|
-
id: 'gemma2',
|
|
138
|
-
},
|
|
139
|
-
{
|
|
140
|
-
contextWindowTokens: 8192,
|
|
141
|
-
description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
|
|
142
|
-
displayName: 'Gemma 2 27B',
|
|
143
|
-
id: 'gemma2:27b',
|
|
144
|
-
},
|
|
145
|
-
{
|
|
146
|
-
contextWindowTokens: 8192,
|
|
147
|
-
description: 'CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。',
|
|
148
|
-
displayName: 'CodeGemma 2B',
|
|
149
|
-
id: 'codegemma:2b',
|
|
150
|
-
},
|
|
151
|
-
{
|
|
152
|
-
contextWindowTokens: 8192,
|
|
153
|
-
description: 'CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。',
|
|
154
|
-
displayName: 'CodeGemma 7B',
|
|
155
|
-
id: 'codegemma',
|
|
156
|
-
},
|
|
157
|
-
{
|
|
158
|
-
contextWindowTokens: 128_000,
|
|
159
|
-
description: 'Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。',
|
|
160
|
-
displayName: 'Phi-3 3.8B',
|
|
161
|
-
enabled: true,
|
|
162
|
-
id: 'phi3',
|
|
163
|
-
},
|
|
164
|
-
{
|
|
165
|
-
contextWindowTokens: 128_000,
|
|
166
|
-
description: 'Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。',
|
|
167
|
-
displayName: 'Phi-3 14B',
|
|
168
|
-
id: 'phi3:14b',
|
|
169
|
-
},
|
|
170
|
-
{
|
|
171
|
-
contextWindowTokens: 32_768,
|
|
172
|
-
description:
|
|
173
|
-
'WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。',
|
|
174
|
-
displayName: 'WizardLM 2 7B',
|
|
175
|
-
enabled: true,
|
|
176
|
-
id: 'wizardlm2',
|
|
177
|
-
},
|
|
178
|
-
{
|
|
179
|
-
contextWindowTokens: 65_536,
|
|
180
|
-
description:
|
|
181
|
-
'WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。',
|
|
182
|
-
displayName: 'WizardLM 2 8x22B',
|
|
183
|
-
id: 'wizardlm2:8x22b',
|
|
184
|
-
},
|
|
185
|
-
{
|
|
186
|
-
contextWindowTokens: 32_768,
|
|
187
|
-
description: 'MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。',
|
|
188
|
-
displayName: 'MathΣtral 7B',
|
|
189
|
-
enabled: true,
|
|
190
|
-
id: 'mathstral',
|
|
191
|
-
},
|
|
192
|
-
{
|
|
193
|
-
contextWindowTokens: 32_768,
|
|
194
|
-
description: 'Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。',
|
|
195
|
-
displayName: 'Mistral 7B',
|
|
196
|
-
enabled: true,
|
|
197
|
-
functionCall: true,
|
|
198
|
-
id: 'mistral',
|
|
199
|
-
},
|
|
200
|
-
{
|
|
201
|
-
contextWindowTokens: 32_768,
|
|
202
|
-
description:
|
|
203
|
-
'Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。',
|
|
204
|
-
displayName: 'Mixtral 8x7B',
|
|
205
|
-
enabled: true,
|
|
206
|
-
functionCall: true,
|
|
207
|
-
id: 'mixtral',
|
|
208
|
-
},
|
|
209
|
-
{
|
|
210
|
-
contextWindowTokens: 65_536,
|
|
211
|
-
description:
|
|
212
|
-
'Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。',
|
|
213
|
-
displayName: 'Mixtral 8x22B',
|
|
214
|
-
functionCall: true,
|
|
215
|
-
id: 'mixtral:8x22b',
|
|
216
|
-
},
|
|
217
|
-
{
|
|
218
|
-
contextWindowTokens: 128_000,
|
|
219
|
-
description:
|
|
220
|
-
'Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。',
|
|
221
|
-
displayName: 'Mixtral Large 123B',
|
|
222
|
-
enabled: true,
|
|
223
|
-
id: 'mistral-large',
|
|
224
|
-
},
|
|
225
|
-
{
|
|
226
|
-
contextWindowTokens: 128_000,
|
|
227
|
-
description: 'Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。',
|
|
228
|
-
displayName: 'Mixtral Nemo 12B',
|
|
229
|
-
enabled: true,
|
|
230
|
-
functionCall: true,
|
|
231
|
-
id: 'mistral-nemo',
|
|
232
|
-
},
|
|
233
|
-
{
|
|
234
|
-
contextWindowTokens: 32_768,
|
|
235
|
-
description: 'Codestral 是 Mistral AI 的首款代码模型,为代码生成任务提供优异支持。',
|
|
236
|
-
displayName: 'Codestral 22B',
|
|
237
|
-
enabled: true,
|
|
238
|
-
id: 'codestral',
|
|
239
|
-
},
|
|
240
|
-
{
|
|
241
|
-
contextWindowTokens: 8192,
|
|
242
|
-
description: 'Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。',
|
|
243
|
-
displayName: 'Aya 23 8B',
|
|
244
|
-
enabled: true,
|
|
245
|
-
id: 'aya',
|
|
246
|
-
},
|
|
247
|
-
{
|
|
248
|
-
contextWindowTokens: 8192,
|
|
249
|
-
description: 'Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。',
|
|
250
|
-
displayName: 'Aya 23 35B',
|
|
251
|
-
id: 'aya:35b',
|
|
252
|
-
},
|
|
253
|
-
{
|
|
254
|
-
contextWindowTokens: 131_072,
|
|
255
|
-
description: 'Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。',
|
|
256
|
-
displayName: 'Command R 35B',
|
|
257
|
-
enabled: true,
|
|
258
|
-
functionCall: true,
|
|
259
|
-
id: 'command-r',
|
|
260
|
-
},
|
|
261
|
-
{
|
|
262
|
-
contextWindowTokens: 131_072,
|
|
263
|
-
description: 'Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。',
|
|
264
|
-
displayName: 'Command R+ 104B',
|
|
265
|
-
enabled: true,
|
|
266
|
-
functionCall: true,
|
|
267
|
-
id: 'command-r-plus',
|
|
268
|
-
},
|
|
269
|
-
{
|
|
270
|
-
contextWindowTokens: 32_768,
|
|
271
|
-
description: 'DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。',
|
|
272
|
-
displayName: 'DeepSeek V2 16B',
|
|
273
|
-
enabled: true,
|
|
274
|
-
id: 'deepseek-v2',
|
|
275
|
-
},
|
|
276
|
-
{
|
|
277
|
-
contextWindowTokens: 128_000,
|
|
278
|
-
description: 'DeepSeek V2 236B 是 DeepSeek 的设计代码模型,提供强大的代码生成能力。',
|
|
279
|
-
displayName: 'DeepSeek V2 236B',
|
|
280
|
-
id: 'deepseek-v2:236b',
|
|
281
|
-
},
|
|
282
|
-
{
|
|
283
|
-
contextWindowTokens: 128_000,
|
|
284
|
-
description:
|
|
285
|
-
'DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。',
|
|
286
|
-
displayName: 'DeepSeek Coder V2 16B',
|
|
287
|
-
enabled: true,
|
|
288
|
-
id: 'deepseek-coder-v2',
|
|
289
|
-
},
|
|
290
|
-
{
|
|
291
|
-
contextWindowTokens: 128_000,
|
|
292
|
-
description:
|
|
293
|
-
'DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。',
|
|
294
|
-
displayName: 'DeepSeek Coder V2 236B',
|
|
295
|
-
id: 'deepseek-coder-v2:236b',
|
|
296
|
-
},
|
|
297
|
-
{
|
|
298
|
-
contextWindowTokens: 4096,
|
|
299
|
-
description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
|
|
300
|
-
displayName: 'LLaVA 7B',
|
|
301
|
-
enabled: true,
|
|
302
|
-
id: 'llava',
|
|
303
|
-
vision: true,
|
|
304
|
-
},
|
|
305
|
-
{
|
|
306
|
-
contextWindowTokens: 4096,
|
|
307
|
-
description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
|
|
308
|
-
displayName: 'LLaVA 13B',
|
|
309
|
-
id: 'llava:13b',
|
|
310
|
-
vision: true,
|
|
311
|
-
},
|
|
312
|
-
{
|
|
313
|
-
contextWindowTokens: 4096,
|
|
314
|
-
description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
|
|
315
|
-
displayName: 'LLaVA 34B',
|
|
316
|
-
id: 'llava:34b',
|
|
317
|
-
vision: true,
|
|
318
|
-
},
|
|
319
|
-
{
|
|
320
|
-
contextWindowTokens: 128_000,
|
|
321
|
-
description:
|
|
322
|
-
'MiniCPM-V 是 OpenBMB 推出的新一代多模态大模型,具备卓越的 OCR 识别和多模态理解能力,支持广泛的应用场景。',
|
|
323
|
-
displayName: 'MiniCPM-V 8B',
|
|
324
|
-
enabled: true,
|
|
325
|
-
id: 'minicpm-v',
|
|
326
|
-
vision: true,
|
|
327
|
-
},
|
|
328
|
-
],
|
|
4
|
+
chatModels: [],
|
|
329
5
|
checkModel: 'deepseek-r1',
|
|
330
6
|
defaultShowBrowserRequest: true,
|
|
331
7
|
description:
|
|
@@ -3,248 +3,7 @@ import { ModelProviderCard } from '@/types/llm';
|
|
|
3
3
|
// ref: https://platform.openai.com/docs/deprecations
|
|
4
4
|
const OpenAI: ModelProviderCard = {
|
|
5
5
|
apiKeyUrl: 'https://platform.openai.com/api-keys?utm_source=lobehub',
|
|
6
|
-
chatModels: [
|
|
7
|
-
{
|
|
8
|
-
contextWindowTokens: 400_000,
|
|
9
|
-
description:
|
|
10
|
-
'更快、更经济高效的 GPT-5 版本,适用于明确定义的任务。在保持高质量输出的同时,提供更快的响应速度。',
|
|
11
|
-
displayName: 'GPT-5 mini',
|
|
12
|
-
enabled: true,
|
|
13
|
-
functionCall: true,
|
|
14
|
-
id: 'gpt-5-mini',
|
|
15
|
-
maxOutput: 128_000,
|
|
16
|
-
pricing: {
|
|
17
|
-
units: [
|
|
18
|
-
{ name: 'textInput', rate: 0.25, strategy: 'fixed', unit: 'millionTokens' },
|
|
19
|
-
{ name: 'textOutput', rate: 2, strategy: 'fixed', unit: 'millionTokens' },
|
|
20
|
-
{ name: 'textInput_cacheRead', rate: 0.03, strategy: 'fixed', unit: 'millionTokens' },
|
|
21
|
-
],
|
|
22
|
-
},
|
|
23
|
-
releasedAt: '2025-08-07',
|
|
24
|
-
vision: true,
|
|
25
|
-
},
|
|
26
|
-
{
|
|
27
|
-
contextWindowTokens: 1_047_576,
|
|
28
|
-
description:
|
|
29
|
-
'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
|
|
30
|
-
displayName: 'GPT-4.1 mini',
|
|
31
|
-
functionCall: true,
|
|
32
|
-
id: 'gpt-4.1-mini',
|
|
33
|
-
maxOutput: 32_768,
|
|
34
|
-
releasedAt: '2025-04-14',
|
|
35
|
-
vision: true,
|
|
36
|
-
},
|
|
37
|
-
{
|
|
38
|
-
contextWindowTokens: 128_000,
|
|
39
|
-
description:
|
|
40
|
-
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
|
41
|
-
displayName: 'OpenAI o1-mini',
|
|
42
|
-
enabled: true,
|
|
43
|
-
id: 'o1-mini',
|
|
44
|
-
maxOutput: 65_536,
|
|
45
|
-
releasedAt: '2024-09-12',
|
|
46
|
-
},
|
|
47
|
-
{
|
|
48
|
-
contextWindowTokens: 200_000,
|
|
49
|
-
description:
|
|
50
|
-
'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
|
|
51
|
-
displayName: 'OpenAI o1',
|
|
52
|
-
enabled: true,
|
|
53
|
-
id: 'o1-2024-12-17',
|
|
54
|
-
maxOutput: 100_000,
|
|
55
|
-
releasedAt: '2024-12-17',
|
|
56
|
-
vision: true,
|
|
57
|
-
},
|
|
58
|
-
{
|
|
59
|
-
contextWindowTokens: 128_000,
|
|
60
|
-
description:
|
|
61
|
-
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
|
62
|
-
displayName: 'OpenAI o1-preview',
|
|
63
|
-
enabled: true,
|
|
64
|
-
id: 'o1-preview',
|
|
65
|
-
maxOutput: 32_768,
|
|
66
|
-
releasedAt: '2024-09-12',
|
|
67
|
-
},
|
|
68
|
-
{
|
|
69
|
-
contextWindowTokens: 128_000,
|
|
70
|
-
description:
|
|
71
|
-
'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
|
|
72
|
-
displayName: 'GPT-4o mini',
|
|
73
|
-
enabled: true,
|
|
74
|
-
functionCall: true,
|
|
75
|
-
id: 'gpt-4o-mini',
|
|
76
|
-
maxOutput: 16_385,
|
|
77
|
-
vision: true,
|
|
78
|
-
},
|
|
79
|
-
{
|
|
80
|
-
contextWindowTokens: 128_000,
|
|
81
|
-
description:
|
|
82
|
-
'GPT-4o mini search preview 是一个专门为搜索功能优化的预览版本,具有增强的网络搜索能力和实时信息检索功能。',
|
|
83
|
-
displayName: 'GPT-4o mini Search Preview',
|
|
84
|
-
functionCall: true,
|
|
85
|
-
id: 'gpt-4o-mini-search-preview',
|
|
86
|
-
maxOutput: 16_384,
|
|
87
|
-
releasedAt: '2024-12-01',
|
|
88
|
-
vision: true,
|
|
89
|
-
},
|
|
90
|
-
{
|
|
91
|
-
contextWindowTokens: 128_000,
|
|
92
|
-
description:
|
|
93
|
-
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
|
94
|
-
displayName: 'GPT-4o 1120',
|
|
95
|
-
enabled: true,
|
|
96
|
-
functionCall: true,
|
|
97
|
-
id: 'gpt-4o-2024-11-20',
|
|
98
|
-
releasedAt: '2024-11-20',
|
|
99
|
-
vision: true,
|
|
100
|
-
},
|
|
101
|
-
{
|
|
102
|
-
contextWindowTokens: 128_000,
|
|
103
|
-
description:
|
|
104
|
-
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
|
105
|
-
displayName: 'GPT-4o',
|
|
106
|
-
enabled: true,
|
|
107
|
-
functionCall: true,
|
|
108
|
-
id: 'gpt-4o',
|
|
109
|
-
vision: true,
|
|
110
|
-
},
|
|
111
|
-
{
|
|
112
|
-
contextWindowTokens: 128_000,
|
|
113
|
-
description:
|
|
114
|
-
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
|
115
|
-
displayName: 'GPT-4o 0806',
|
|
116
|
-
functionCall: true,
|
|
117
|
-
id: 'gpt-4o-2024-08-06',
|
|
118
|
-
releasedAt: '2024-08-06',
|
|
119
|
-
vision: true,
|
|
120
|
-
},
|
|
121
|
-
{
|
|
122
|
-
contextWindowTokens: 128_000,
|
|
123
|
-
description:
|
|
124
|
-
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
|
125
|
-
displayName: 'GPT-4o 0513',
|
|
126
|
-
functionCall: true,
|
|
127
|
-
id: 'gpt-4o-2024-05-13',
|
|
128
|
-
releasedAt: '2024-05-13',
|
|
129
|
-
vision: true,
|
|
130
|
-
},
|
|
131
|
-
{
|
|
132
|
-
contextWindowTokens: 128_000,
|
|
133
|
-
description:
|
|
134
|
-
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
|
135
|
-
displayName: 'ChatGPT-4o',
|
|
136
|
-
enabled: true,
|
|
137
|
-
id: 'chatgpt-4o-latest',
|
|
138
|
-
vision: true,
|
|
139
|
-
},
|
|
140
|
-
{
|
|
141
|
-
contextWindowTokens: 128_000,
|
|
142
|
-
description:
|
|
143
|
-
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
|
144
|
-
displayName: 'GPT-4 Turbo',
|
|
145
|
-
functionCall: true,
|
|
146
|
-
id: 'gpt-4-turbo',
|
|
147
|
-
vision: true,
|
|
148
|
-
},
|
|
149
|
-
{
|
|
150
|
-
contextWindowTokens: 128_000,
|
|
151
|
-
description:
|
|
152
|
-
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
|
153
|
-
displayName: 'GPT-4 Turbo Vision 0409',
|
|
154
|
-
functionCall: true,
|
|
155
|
-
id: 'gpt-4-turbo-2024-04-09',
|
|
156
|
-
vision: true,
|
|
157
|
-
},
|
|
158
|
-
{
|
|
159
|
-
contextWindowTokens: 128_000,
|
|
160
|
-
description:
|
|
161
|
-
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
|
162
|
-
displayName: 'GPT-4 Turbo Preview',
|
|
163
|
-
functionCall: true,
|
|
164
|
-
id: 'gpt-4-turbo-preview',
|
|
165
|
-
},
|
|
166
|
-
{
|
|
167
|
-
contextWindowTokens: 128_000,
|
|
168
|
-
description:
|
|
169
|
-
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
|
170
|
-
displayName: 'GPT-4 Turbo Preview 0125',
|
|
171
|
-
functionCall: true,
|
|
172
|
-
id: 'gpt-4-0125-preview',
|
|
173
|
-
},
|
|
174
|
-
{
|
|
175
|
-
contextWindowTokens: 128_000,
|
|
176
|
-
description:
|
|
177
|
-
'最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
|
|
178
|
-
displayName: 'GPT-4 Turbo Preview 1106',
|
|
179
|
-
functionCall: true,
|
|
180
|
-
id: 'gpt-4-1106-preview',
|
|
181
|
-
},
|
|
182
|
-
{
|
|
183
|
-
contextWindowTokens: 8192,
|
|
184
|
-
description:
|
|
185
|
-
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
|
186
|
-
displayName: 'GPT-4',
|
|
187
|
-
functionCall: true,
|
|
188
|
-
id: 'gpt-4',
|
|
189
|
-
},
|
|
190
|
-
{
|
|
191
|
-
contextWindowTokens: 8192,
|
|
192
|
-
description:
|
|
193
|
-
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
|
194
|
-
displayName: 'GPT-4 0613',
|
|
195
|
-
functionCall: true,
|
|
196
|
-
id: 'gpt-4-0613',
|
|
197
|
-
},
|
|
198
|
-
{
|
|
199
|
-
contextWindowTokens: 32_768,
|
|
200
|
-
description:
|
|
201
|
-
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
|
202
|
-
// Will be discontinued on June 6, 2025
|
|
203
|
-
displayName: 'GPT-4 32K',
|
|
204
|
-
functionCall: true,
|
|
205
|
-
id: 'gpt-4-32k',
|
|
206
|
-
},
|
|
207
|
-
{
|
|
208
|
-
contextWindowTokens: 32_768,
|
|
209
|
-
// Will be discontinued on June 6, 2025
|
|
210
|
-
description:
|
|
211
|
-
'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
|
|
212
|
-
displayName: 'GPT-4 32K 0613',
|
|
213
|
-
functionCall: true,
|
|
214
|
-
id: 'gpt-4-32k-0613',
|
|
215
|
-
},
|
|
216
|
-
{
|
|
217
|
-
contextWindowTokens: 16_385,
|
|
218
|
-
description:
|
|
219
|
-
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
|
220
|
-
displayName: 'GPT-3.5 Turbo',
|
|
221
|
-
functionCall: true,
|
|
222
|
-
id: 'gpt-3.5-turbo',
|
|
223
|
-
},
|
|
224
|
-
{
|
|
225
|
-
contextWindowTokens: 16_385,
|
|
226
|
-
description:
|
|
227
|
-
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
|
228
|
-
displayName: 'GPT-3.5 Turbo 0125',
|
|
229
|
-
functionCall: true,
|
|
230
|
-
id: 'gpt-3.5-turbo-0125',
|
|
231
|
-
},
|
|
232
|
-
{
|
|
233
|
-
contextWindowTokens: 16_385,
|
|
234
|
-
description:
|
|
235
|
-
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
|
236
|
-
displayName: 'GPT-3.5 Turbo 1106',
|
|
237
|
-
functionCall: true,
|
|
238
|
-
id: 'gpt-3.5-turbo-1106',
|
|
239
|
-
},
|
|
240
|
-
{
|
|
241
|
-
contextWindowTokens: 4096,
|
|
242
|
-
description:
|
|
243
|
-
'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
|
|
244
|
-
displayName: 'GPT-3.5 Turbo Instruct',
|
|
245
|
-
id: 'gpt-3.5-turbo-instruct',
|
|
246
|
-
},
|
|
247
|
-
],
|
|
6
|
+
chatModels: [],
|
|
248
7
|
checkModel: 'gpt-5-nano',
|
|
249
8
|
description:
|
|
250
9
|
'OpenAI 是全球领先的人工智能研究机构,其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性,广泛用于研究、商业和创新应用。',
|