@lobehub/chat 1.16.8 → 1.16.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of @lobehub/chat might be problematic. Click here for more details.

Files changed (37) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/package.json +1 -1
  3. package/src/config/modelProviders/ai360.ts +11 -0
  4. package/src/config/modelProviders/anthropic.ts +27 -18
  5. package/src/config/modelProviders/azure.ts +12 -3
  6. package/src/config/modelProviders/baichuan.ts +3 -1
  7. package/src/config/modelProviders/bedrock.ts +20 -18
  8. package/src/config/modelProviders/deepseek.ts +3 -1
  9. package/src/config/modelProviders/fireworksai.ts +33 -5
  10. package/src/config/modelProviders/google.ts +16 -13
  11. package/src/config/modelProviders/groq.ts +19 -8
  12. package/src/config/modelProviders/minimax.ts +8 -6
  13. package/src/config/modelProviders/mistral.ts +19 -3
  14. package/src/config/modelProviders/moonshot.ts +11 -1
  15. package/src/config/modelProviders/novita.ts +24 -0
  16. package/src/config/modelProviders/ollama.ts +58 -1
  17. package/src/config/modelProviders/openai.ts +52 -18
  18. package/src/config/modelProviders/openrouter.ts +21 -1
  19. package/src/config/modelProviders/perplexity.ts +19 -3
  20. package/src/config/modelProviders/qwen.ts +11 -8
  21. package/src/config/modelProviders/siliconcloud.ts +34 -1
  22. package/src/config/modelProviders/spark.ts +16 -7
  23. package/src/config/modelProviders/stepfun.ts +13 -1
  24. package/src/config/modelProviders/taichu.ts +7 -2
  25. package/src/config/modelProviders/togetherai.ts +38 -2
  26. package/src/config/modelProviders/upstage.ts +11 -4
  27. package/src/config/modelProviders/zeroone.ts +5 -1
  28. package/src/config/modelProviders/zhipu.ts +20 -18
  29. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +13 -6
  30. package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
  31. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +24 -4
  32. package/src/server/routers/edge/config/index.test.ts +3 -11
  33. package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
  34. package/src/store/user/slices/modelList/action.test.ts +3 -7
  35. package/src/types/llm.ts +1 -0
  36. package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
  37. package/src/utils/parseModels.test.ts +1 -28
@@ -1,208 +1,259 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://ollama.com/library
3
+ // ref: https://ollama.com/library
4
4
  const Ollama: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description:
8
+ 'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
7
9
  displayName: 'Llama 3.1 8B',
8
10
  enabled: true,
9
11
  id: 'llama3.1',
10
12
  tokens: 128_000,
11
13
  },
12
14
  {
15
+ description:
16
+ 'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
13
17
  displayName: 'Llama 3.1 70B',
14
18
  id: 'llama3.1:70b',
15
19
  tokens: 128_000,
16
20
  },
17
21
  {
22
+ description:
23
+ 'Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。',
18
24
  displayName: 'Llama 3.1 405B',
19
25
  id: 'llama3.1:405b',
20
26
  tokens: 128_000,
21
27
  },
22
28
  {
29
+ description:
30
+ 'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
23
31
  displayName: 'Code Llama 7B',
24
32
  enabled: true,
25
33
  id: 'codellama',
26
34
  tokens: 16_384,
27
35
  },
28
36
  {
37
+ description:
38
+ 'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
29
39
  displayName: 'Code Llama 13B',
30
40
  id: 'codellama:13b',
31
41
  tokens: 16_384,
32
42
  },
33
43
  {
44
+ description:
45
+ 'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
34
46
  displayName: 'Code Llama 34B',
35
47
  id: 'codellama:34b',
36
48
  tokens: 16_384,
37
49
  },
38
50
  {
51
+ description:
52
+ 'Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。',
39
53
  displayName: 'Code Llama 70B',
40
54
  id: 'codellama:70b',
41
55
  tokens: 16_384,
42
56
  },
43
57
  {
58
+ description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
44
59
  displayName: 'Gemma 2 2B',
45
60
  id: 'gemma2:2b',
46
61
  tokens: 8192,
47
62
  },
48
63
  {
64
+ description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
49
65
  displayName: 'Gemma 2 9B',
50
66
  enabled: true,
51
67
  id: 'gemma2',
52
68
  tokens: 8192,
53
69
  },
54
70
  {
71
+ description: 'Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。',
55
72
  displayName: 'Gemma 2 27B',
56
73
  id: 'gemma2:27b',
57
74
  tokens: 8192,
58
75
  },
59
76
  {
77
+ description: 'CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。',
60
78
  displayName: 'CodeGemma 2B',
61
79
  id: 'codegemma:2b',
62
80
  tokens: 8192,
63
81
  },
64
82
  {
83
+ description: 'CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。',
65
84
  displayName: 'CodeGemma 7B',
66
85
  enabled: true,
67
86
  id: 'codegemma',
68
87
  tokens: 8192,
69
88
  },
70
89
  {
90
+ description: 'Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。',
71
91
  displayName: 'Phi-3 3.8B',
72
92
  enabled: true,
73
93
  id: 'phi3',
74
94
  tokens: 128_000,
75
95
  },
76
96
  {
97
+ description: 'Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。',
77
98
  displayName: 'Phi-3 14B',
78
99
  id: 'phi3:14b',
79
100
  tokens: 128_000,
80
101
  },
81
102
  {
103
+ description:
104
+ 'WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。',
82
105
  displayName: 'WizardLM 2 7B',
83
106
  enabled: true,
84
107
  id: 'wizardlm2',
85
108
  tokens: 32_768,
86
109
  },
87
110
  {
111
+ description:
112
+ 'WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。',
88
113
  displayName: 'WizardLM 2 8x22B',
89
114
  id: 'wizardlm2:8x22b',
90
115
  tokens: 65_536,
91
116
  },
92
117
  {
118
+ description: 'MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。',
93
119
  displayName: 'MathΣtral 7B',
94
120
  enabled: true,
95
121
  id: 'mathstral',
96
122
  tokens: 32_768,
97
123
  },
98
124
  {
125
+ description: 'Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。',
99
126
  displayName: 'Mistral 7B',
100
127
  enabled: true,
101
128
  id: 'mistral',
102
129
  tokens: 32_768,
103
130
  },
104
131
  {
132
+ description:
133
+ 'Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。',
105
134
  displayName: 'Mixtral 8x7B',
106
135
  enabled: true,
107
136
  id: 'mixtral',
108
137
  tokens: 32_768,
109
138
  },
110
139
  {
140
+ description:
141
+ 'Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。',
111
142
  displayName: 'Mixtral 8x22B',
112
143
  id: 'mixtral:8x22b',
113
144
  tokens: 65_536,
114
145
  },
115
146
  {
147
+ description:
148
+ 'Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。',
116
149
  displayName: 'Mixtral Large 123B',
117
150
  enabled: true,
118
151
  id: 'mistral-large',
119
152
  tokens: 128_000,
120
153
  },
121
154
  {
155
+ description: 'Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。',
122
156
  displayName: 'Mixtral Nemo 12B',
123
157
  enabled: true,
124
158
  id: 'mistral-nemo',
125
159
  tokens: 128_000,
126
160
  },
127
161
  {
162
+ description: 'Codestral 是 Mistral AI 的首款代码模型,为代码生成任务提供优异支持。',
128
163
  displayName: 'Codestral 22B',
129
164
  enabled: true,
130
165
  id: 'codestral',
131
166
  tokens: 32_768,
132
167
  },
133
168
  {
169
+ description: 'Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。',
134
170
  displayName: 'Aya 23 8B',
135
171
  enabled: true,
136
172
  id: 'aya',
137
173
  tokens: 8192,
138
174
  },
139
175
  {
176
+ description: 'Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。',
140
177
  displayName: 'Aya 23 35B',
141
178
  id: 'aya:35b',
142
179
  tokens: 8192,
143
180
  },
144
181
  {
182
+ description: 'Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。',
145
183
  displayName: 'Command R 35B',
146
184
  enabled: true,
147
185
  id: 'command-r',
148
186
  tokens: 131_072,
149
187
  },
150
188
  {
189
+ description: 'Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。',
151
190
  displayName: 'Command R+ 104B',
152
191
  enabled: true,
153
192
  id: 'command-r-plus',
154
193
  tokens: 131_072,
155
194
  },
156
195
  {
196
+ description: 'DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。',
157
197
  displayName: 'DeepSeek V2 16B',
158
198
  enabled: true,
159
199
  id: 'deepseek-v2',
160
200
  tokens: 32_768,
161
201
  },
162
202
  {
203
+ description: 'DeepSeek V2 236B 是 DeepSeek 的设计代码模型,提供强大的代码生成能力。',
163
204
  displayName: 'DeepSeek V2 236B',
164
205
  id: 'deepseek-v2:236b',
165
206
  tokens: 128_000,
166
207
  },
167
208
  {
209
+ description:
210
+ 'DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。',
168
211
  displayName: 'DeepSeek Coder V2 16B',
169
212
  enabled: true,
170
213
  id: 'deepseek-coder-v2',
171
214
  tokens: 128_000,
172
215
  },
173
216
  {
217
+ description:
218
+ 'DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。',
174
219
  displayName: 'DeepSeek Coder V2 236B',
175
220
  id: 'deepseek-coder-v2:236b',
176
221
  tokens: 128_000,
177
222
  },
178
223
  {
224
+ description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
179
225
  displayName: 'Qwen2 0.5B',
180
226
  id: 'qwen2:0.5b',
181
227
  tokens: 128_000,
182
228
  },
183
229
  {
230
+ description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
184
231
  displayName: 'Qwen2 1.5B',
185
232
  id: 'qwen2:1.5b',
186
233
  tokens: 128_000,
187
234
  },
188
235
  {
236
+ description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
189
237
  displayName: 'Qwen2 7B',
190
238
  enabled: true,
191
239
  id: 'qwen2',
192
240
  tokens: 128_000,
193
241
  },
194
242
  {
243
+ description: 'Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。',
195
244
  displayName: 'Qwen2 72B',
196
245
  id: 'qwen2:72b',
197
246
  tokens: 128_000,
198
247
  },
199
248
  {
249
+ description: 'CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。',
200
250
  displayName: 'CodeQwen1.5 7B',
201
251
  enabled: true,
202
252
  id: 'codeqwen',
203
253
  tokens: 65_536,
204
254
  },
205
255
  {
256
+ description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
206
257
  displayName: 'LLaVA 7B',
207
258
  enabled: true,
208
259
  id: 'llava',
@@ -210,12 +261,14 @@ const Ollama: ModelProviderCard = {
210
261
  vision: true,
211
262
  },
212
263
  {
264
+ description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
213
265
  displayName: 'LLaVA 13B',
214
266
  id: 'llava:13b',
215
267
  tokens: 4096,
216
268
  vision: true,
217
269
  },
218
270
  {
271
+ description: 'LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。',
219
272
  displayName: 'LLaVA 34B',
220
273
  id: 'llava:34b',
221
274
  tokens: 4096,
@@ -223,10 +276,14 @@ const Ollama: ModelProviderCard = {
223
276
  },
224
277
  ],
225
278
  defaultShowBrowserRequest: true,
279
+ description:
280
+ 'Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。',
226
281
  id: 'ollama',
227
282
  modelList: { showModelFetcher: true },
283
+ modelsUrl: 'https://ollama.com/library',
228
284
  name: 'Ollama',
229
285
  showApiKey: false,
286
+ url: 'https://ollama.com',
230
287
  };
231
288
 
232
289
  export default Ollama;
@@ -1,11 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref:
4
- // https://platform.openai.com/docs/deprecations
3
+ // ref: https://platform.openai.com/docs/deprecations
5
4
  const OpenAI: ModelProviderCard = {
6
5
  chatModels: [
7
6
  {
8
- description: 'Currently points to gpt-4o-mini-2024-07-18',
7
+ description:
8
+ 'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
9
9
  displayName: 'GPT-4o mini',
10
10
  enabled: true,
11
11
  functionCall: true,
@@ -19,7 +19,8 @@ const OpenAI: ModelProviderCard = {
19
19
  vision: true,
20
20
  },
21
21
  {
22
- description: 'Currently points to gpt-4o-2024-05-13',
22
+ description:
23
+ 'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
23
24
  displayName: 'GPT-4o',
24
25
  enabled: true,
25
26
  functionCall: true,
@@ -32,7 +33,8 @@ const OpenAI: ModelProviderCard = {
32
33
  vision: true,
33
34
  },
34
35
  {
35
- description: 'Latest GPT-4o snapshot that supports Structured Outputs',
36
+ description:
37
+ 'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
36
38
  displayName: 'GPT-4o (240806)',
37
39
  enabled: true,
38
40
  functionCall: true,
@@ -45,7 +47,8 @@ const OpenAI: ModelProviderCard = {
45
47
  vision: true,
46
48
  },
47
49
  {
48
- description: 'Latest GPT-4o snapshot that supports Structured Outputs',
50
+ description:
51
+ 'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
49
52
  displayName: 'GPT-4o (240513)',
50
53
  functionCall: true,
51
54
  id: 'gpt-4o-2024-05-13',
@@ -57,7 +60,8 @@ const OpenAI: ModelProviderCard = {
57
60
  vision: true,
58
61
  },
59
62
  {
60
- description: 'Dynamic model continuously updated to the current version of GPT-4o in ChatGPT',
63
+ description:
64
+ 'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
61
65
  displayName: 'ChatGPT-4o',
62
66
  enabled: true,
63
67
  id: 'chatgpt-4o-latest',
@@ -69,7 +73,8 @@ const OpenAI: ModelProviderCard = {
69
73
  vision: true,
70
74
  },
71
75
  {
72
- description: 'GPT-4 Turbo with Vision',
76
+ description:
77
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
73
78
  displayName: 'GPT-4 Turbo',
74
79
  functionCall: true,
75
80
  id: 'gpt-4-turbo',
@@ -81,7 +86,8 @@ const OpenAI: ModelProviderCard = {
81
86
  vision: true,
82
87
  },
83
88
  {
84
- description: 'GPT-4 Turbo 视觉版 (240409)',
89
+ description:
90
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
85
91
  displayName: 'GPT-4 Turbo Vision (240409)',
86
92
  functionCall: true,
87
93
  id: 'gpt-4-turbo-2024-04-09',
@@ -93,7 +99,8 @@ const OpenAI: ModelProviderCard = {
93
99
  vision: true,
94
100
  },
95
101
  {
96
- description: 'Currently points to gpt-4-0125-preview',
102
+ description:
103
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
97
104
  displayName: 'GPT-4 Turbo Preview',
98
105
  functionCall: true,
99
106
  id: 'gpt-4-turbo-preview',
@@ -104,6 +111,8 @@ const OpenAI: ModelProviderCard = {
104
111
  tokens: 128_000,
105
112
  },
106
113
  {
114
+ description:
115
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
107
116
  displayName: 'GPT-4 Turbo Preview (0125)',
108
117
  functionCall: true,
109
118
  id: 'gpt-4-0125-preview',
@@ -114,7 +123,8 @@ const OpenAI: ModelProviderCard = {
114
123
  tokens: 128_000,
115
124
  },
116
125
  {
117
- description: 'Currently points to gpt-4-1106-vision-preview', // Will be discontinued on December 6, 2024
126
+ description:
127
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
118
128
  displayName: 'GPT-4 Turbo Vision Preview',
119
129
  id: 'gpt-4-vision-preview',
120
130
  pricing: {
@@ -125,7 +135,8 @@ const OpenAI: ModelProviderCard = {
125
135
  vision: true,
126
136
  },
127
137
  {
128
- displayName: 'GPT-4 Turbo Vision Preview (1106)', // Will be discontinued on December 6, 2024
138
+ description:
139
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
129
140
  id: 'gpt-4-1106-vision-preview',
130
141
  pricing: {
131
142
  input: 10,
@@ -135,6 +146,8 @@ const OpenAI: ModelProviderCard = {
135
146
  vision: true,
136
147
  },
137
148
  {
149
+ description:
150
+ '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
138
151
  displayName: 'GPT-4 Turbo Preview (1106)',
139
152
  functionCall: true,
140
153
  id: 'gpt-4-1106-preview',
@@ -145,7 +158,8 @@ const OpenAI: ModelProviderCard = {
145
158
  tokens: 128_000,
146
159
  },
147
160
  {
148
- description: 'Currently points to gpt-4-0613',
161
+ description:
162
+ 'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
149
163
  displayName: 'GPT-4',
150
164
  functionCall: true,
151
165
  id: 'gpt-4',
@@ -156,6 +170,8 @@ const OpenAI: ModelProviderCard = {
156
170
  tokens: 8192,
157
171
  },
158
172
  {
173
+ description:
174
+ 'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
159
175
  displayName: 'GPT-4 (0613)',
160
176
  functionCall: true,
161
177
  id: 'gpt-4-0613',
@@ -166,7 +182,8 @@ const OpenAI: ModelProviderCard = {
166
182
  tokens: 8192,
167
183
  },
168
184
  {
169
- description: 'Currently points to gpt-4-32k-0613', // Will be discontinued on June 6, 2025
185
+ description:
186
+ 'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。', // Will be discontinued on June 6, 2025
170
187
  displayName: 'GPT-4 32K',
171
188
  functionCall: true,
172
189
  id: 'gpt-4-32k',
@@ -177,7 +194,10 @@ const OpenAI: ModelProviderCard = {
177
194
  tokens: 32_768,
178
195
  },
179
196
  {
180
- displayName: 'GPT-4 32K (0613)', // Will be discontinued on June 6, 2025
197
+ // Will be discontinued on June 6, 2025
198
+ description:
199
+ 'GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。',
200
+ displayName: 'GPT-4 32K (0613)',
181
201
  functionCall: true,
182
202
  id: 'gpt-4-32k-0613',
183
203
  pricing: {
@@ -199,6 +219,8 @@ const OpenAI: ModelProviderCard = {
199
219
  tokens: 16_385,
200
220
  },
201
221
  {
222
+ description:
223
+ 'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
202
224
  displayName: 'GPT-3.5 Turbo (0125)',
203
225
  functionCall: true,
204
226
  id: 'gpt-3.5-turbo-0125',
@@ -209,6 +231,8 @@ const OpenAI: ModelProviderCard = {
209
231
  tokens: 16_385,
210
232
  },
211
233
  {
234
+ description:
235
+ 'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
212
236
  displayName: 'GPT-3.5 Turbo (1106)',
213
237
  functionCall: true,
214
238
  id: 'gpt-3.5-turbo-1106',
@@ -219,6 +243,8 @@ const OpenAI: ModelProviderCard = {
219
243
  tokens: 16_385,
220
244
  },
221
245
  {
246
+ description:
247
+ 'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125',
222
248
  displayName: 'GPT-3.5 Turbo Instruct',
223
249
  id: 'gpt-3.5-turbo-instruct',
224
250
  pricing: {
@@ -228,7 +254,9 @@ const OpenAI: ModelProviderCard = {
228
254
  tokens: 4096,
229
255
  },
230
256
  {
231
- description: 'Currently points to gpt-3.5-turbo-16k-0613', // Will be discontinued on September 13, 2024
257
+ description:
258
+ 'GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125', // Will be discontinued on September 13, 2024
259
+
232
260
  displayName: 'GPT-3.5 Turbo 16K',
233
261
  id: 'gpt-3.5-turbo-16k',
234
262
  legacy: true,
@@ -239,7 +267,10 @@ const OpenAI: ModelProviderCard = {
239
267
  tokens: 16_385,
240
268
  },
241
269
  {
242
- displayName: 'GPT-3.5 Turbo (0613)', // Will be discontinued on September 13, 2024
270
+ description:
271
+ 'GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。',
272
+ displayName: 'GPT-3.5 Turbo (0613)',
273
+ // Will be discontinued on September 13, 2024
243
274
  id: 'gpt-3.5-turbo-0613',
244
275
  legacy: true,
245
276
  pricing: {
@@ -249,7 +280,8 @@ const OpenAI: ModelProviderCard = {
249
280
  tokens: 4096,
250
281
  },
251
282
  {
252
- description: 'Currently points to gpt-3.5-turbo-16k-0613', // Will be discontinued on September 13, 2024
283
+ description:
284
+ 'GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。', // Will be discontinued on September 13, 2024
253
285
  id: 'gpt-3.5-turbo-16k-0613',
254
286
  legacy: true,
255
287
  pricing: {
@@ -260,6 +292,8 @@ const OpenAI: ModelProviderCard = {
260
292
  },
261
293
  ],
262
294
  checkModel: 'gpt-4o-mini',
295
+ description:
296
+ 'OpenAI 是全球领先的人工智能研究机构,其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性,广泛用于研究、商业和创新应用。',
263
297
  enabled: true,
264
298
  id: 'openai',
265
299
  modelList: { showModelFetcher: true },
@@ -1,9 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://openrouter.ai/docs#models
3
+ // ref :https://openrouter.ai/docs#models
4
4
  const OpenRouter: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description:
8
+ '根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。',
7
9
  displayName: 'Auto (best for prompt)',
8
10
  enabled: true,
9
11
  functionCall: false,
@@ -12,6 +14,8 @@ const OpenRouter: ModelProviderCard = {
12
14
  vision: false,
13
15
  },
14
16
  {
17
+ description:
18
+ 'Mistral 7B Instruct 是一款高效的多语言模型,优化用于对话和问答,能在资源受限的环境中表现出色。',
15
19
  displayName: 'Mistral 7B Instruct (free)',
16
20
  enabled: true,
17
21
  functionCall: false,
@@ -20,6 +24,7 @@ const OpenRouter: ModelProviderCard = {
20
24
  vision: false,
21
25
  },
22
26
  {
27
+ description: 'Google 的 Gemma 7B 具有出色的计算效率,适适用于多种硬件架构,如GPU和TPU。',
23
28
  displayName: 'Google: Gemma 7B (free)',
24
29
  enabled: true,
25
30
  functionCall: false,
@@ -28,6 +33,7 @@ const OpenRouter: ModelProviderCard = {
28
33
  vision: false,
29
34
  },
30
35
  {
36
+ description: 'OpenChat 3.5 是一个创新的开源语言模型库,使用C-RLFT策略优化,支持多种任务。',
31
37
  displayName: 'OpenChat 3.5 (free)',
32
38
  enabled: true,
33
39
  functionCall: false,
@@ -36,6 +42,7 @@ const OpenRouter: ModelProviderCard = {
36
42
  vision: false,
37
43
  },
38
44
  {
45
+ description: 'Nous Capybara 7B 专为基础任务设计,提供高效的语言处理能力。',
39
46
  displayName: 'Nous: Capybara 7B (free)',
40
47
  enabled: true,
41
48
  functionCall: false,
@@ -44,6 +51,7 @@ const OpenRouter: ModelProviderCard = {
44
51
  vision: false,
45
52
  },
46
53
  {
54
+ description: 'Hugging Face的Zephyr 7B,以小巧身形实现了超越许多大型模型的性能。',
47
55
  displayName: 'Hugging Face: Zephyr 7B (free)',
48
56
  enabled: true,
49
57
  functionCall: false,
@@ -52,6 +60,7 @@ const OpenRouter: ModelProviderCard = {
52
60
  vision: false,
53
61
  },
54
62
  {
63
+ description: 'MythoMist 7B 为实验性最强的Mistral合并模型,结合了最新算法。',
55
64
  displayName: 'MythoMist 7B (free)',
56
65
  enabled: true,
57
66
  functionCall: false,
@@ -60,6 +69,7 @@ const OpenRouter: ModelProviderCard = {
60
69
  vision: false,
61
70
  },
62
71
  {
72
+ description: 'Toppy M 7B 是一个开源模型,旨在通过开源科学推进人工智能的普及。',
63
73
  displayName: 'Toppy M 7B (free)',
64
74
  enabled: true,
65
75
  functionCall: false,
@@ -68,6 +78,7 @@ const OpenRouter: ModelProviderCard = {
68
78
  vision: false,
69
79
  },
70
80
  {
81
+ description: 'Cinematika 7B 模型将电影剧本转换为小说风格,适用于创意内容生成。',
71
82
  displayName: 'Cinematika 7B (alpha) (free)',
72
83
  enabled: true,
73
84
  functionCall: false,
@@ -76,6 +87,7 @@ const OpenRouter: ModelProviderCard = {
76
87
  vision: false,
77
88
  },
78
89
  {
90
+ description: 'RWKV v5 World 3B 结合了 RNN 和 Transformer,实现了卓越的多语言处理能力。',
79
91
  displayName: 'RWKV v5 World 3B (free)',
80
92
  enabled: true,
81
93
  functionCall: false,
@@ -84,6 +96,7 @@ const OpenRouter: ModelProviderCard = {
84
96
  vision: false,
85
97
  },
86
98
  {
99
+ description: 'RWKV v5 3B AI Town 是为 AI 小镇项目前置量身定制的模型。',
87
100
  displayName: 'RWKV v5 3B AI Town (free)',
88
101
  enabled: true,
89
102
  functionCall: false,
@@ -92,6 +105,7 @@ const OpenRouter: ModelProviderCard = {
92
105
  vision: false,
93
106
  },
94
107
  {
108
+ description: 'RWKV v5 Eagle 7B 以超小成本实现高效的多语言翻译和处理,适用于边缘计算。',
95
109
  displayName: 'RWKV v5: Eagle 7B (free)',
96
110
  enabled: true,
97
111
  functionCall: false,
@@ -100,6 +114,7 @@ const OpenRouter: ModelProviderCard = {
100
114
  vision: false,
101
115
  },
102
116
  {
117
+ description: 'Mistral Mixtral 8x22B 提供高性能的基础模型。',
103
118
  displayName: 'Mistral: Mixtral 8x22B (base)',
104
119
  enabled: true,
105
120
  functionCall: false,
@@ -108,6 +123,7 @@ const OpenRouter: ModelProviderCard = {
108
123
  vision: false,
109
124
  },
110
125
  {
126
+ description: '微软的 WizardLM-2 8x22B 具有高容量和高效能特性。',
111
127
  displayName: 'Microsoft: WizardLM-2 8x22B',
112
128
  enabled: true,
113
129
  functionCall: false,
@@ -117,9 +133,13 @@ const OpenRouter: ModelProviderCard = {
117
133
  },
118
134
  ],
119
135
  checkModel: 'mistralai/mistral-7b-instruct:free',
136
+ description:
137
+ 'OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多,适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格,助力AI体验的提升。',
120
138
  id: 'openrouter',
121
139
  modelList: { showModelFetcher: true },
140
+ modelsUrl: 'https://openrouter.ai/models',
122
141
  name: 'OpenRouter',
142
+ url: 'https://openrouter.ai',
123
143
  };
124
144
 
125
145
  export default OpenRouter;