@lobehub/chat 1.80.3 → 1.80.5

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -4,6 +4,23 @@ import { AIChatModelCard } from '@/types/aiModel';
4
4
  // https://console.groq.com/docs/models
5
5
 
6
6
  const groqChatModels: AIChatModelCard[] = [
7
+ {
8
+ contextWindowTokens: 131_072,
9
+ description: 'Compound-beta 是一个复合 AI 系统,由 GroqCloud 中已经支持的多个开放可用的模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
10
+ displayName: 'Compound Beta',
11
+ enabled: true,
12
+ id: 'compound-beta',
13
+ maxOutput: 8192,
14
+ type: 'chat',
15
+ },
16
+ {
17
+ contextWindowTokens: 131_072,
18
+ description: 'Compound-beta-mini 是一个复合 AI 系统,由 GroqCloud 中已经支持的公开可用模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
19
+ displayName: 'Compound Beta Mini',
20
+ id: 'compound-beta-mini',
21
+ maxOutput: 8192,
22
+ type: 'chat',
23
+ },
7
24
  {
8
25
  contextWindowTokens: 131_072,
9
26
  displayName: 'Llama 4 Scout (17Bx16E)',
@@ -68,21 +85,6 @@ const groqChatModels: AIChatModelCard[] = [
68
85
  },
69
86
  type: 'chat',
70
87
  },
71
- {
72
- abilities: {
73
- functionCall: true,
74
- reasoning: true,
75
- },
76
- contextWindowTokens: 131_072,
77
- displayName: 'DeepSeek R1 Distill Qwen 32B',
78
- id: 'deepseek-r1-distill-qwen-32b',
79
- maxOutput: 16_384,
80
- pricing: {
81
- input: 0.69,
82
- output: 0.69,
83
- },
84
- type: 'chat',
85
- },
86
88
  {
87
89
  abilities: {
88
90
  functionCall: true,
@@ -112,69 +114,6 @@ const groqChatModels: AIChatModelCard[] = [
112
114
  },
113
115
  type: 'chat',
114
116
  },
115
- {
116
- abilities: {
117
- vision: true,
118
- },
119
- contextWindowTokens: 131_072,
120
- description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
121
- displayName: 'Llama 3.2 11B Vision (Preview)',
122
- id: 'llama-3.2-11b-vision-preview',
123
- maxOutput: 8192,
124
- pricing: {
125
- input: 0.18,
126
- output: 0.18,
127
- },
128
- type: 'chat',
129
- },
130
- {
131
- abilities: {
132
- vision: true,
133
- },
134
- contextWindowTokens: 131_072,
135
- description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
136
- displayName: 'Llama 3.2 90B Vision (Preview)',
137
- enabled: true,
138
- id: 'llama-3.2-90b-vision-preview',
139
- maxOutput: 8192,
140
- pricing: {
141
- input: 0.9,
142
- output: 0.9,
143
- },
144
- type: 'chat',
145
- },
146
- {
147
- contextWindowTokens: 131_072,
148
- displayName: 'Llama 3.2 1B (Preview)',
149
- id: 'llama-3.2-1b-preview',
150
- maxOutput: 8192,
151
- pricing: {
152
- input: 0.04,
153
- output: 0.04,
154
- },
155
- type: 'chat',
156
- },
157
- {
158
- contextWindowTokens: 131_072,
159
- displayName: 'Llama 3.2 3B (Preview)',
160
- id: 'llama-3.2-3b-preview',
161
- maxOutput: 8192,
162
- pricing: {
163
- input: 0.06,
164
- output: 0.06,
165
- },
166
- type: 'chat',
167
- },
168
- {
169
- contextWindowTokens: 8192,
170
- displayName: 'Llama 3.3 70B SpecDec',
171
- id: 'llama-3.3-70b-specdec',
172
- pricing: {
173
- input: 0.59,
174
- output: 0.99,
175
- },
176
- type: 'chat',
177
- },
178
117
  {
179
118
  abilities: {
180
119
  functionCall: true,
@@ -236,29 +175,6 @@ const groqChatModels: AIChatModelCard[] = [
236
175
  },
237
176
  type: 'chat',
238
177
  },
239
- {
240
- abilities: {
241
- functionCall: true,
242
- },
243
- contextWindowTokens: 131_072,
244
- displayName: 'Qwen 2.5 32B',
245
- id: 'qwen-2.5-32b',
246
- pricing: {
247
- input: 0.79,
248
- output: 0.79,
249
- },
250
- type: 'chat',
251
- },
252
- {
253
- contextWindowTokens: 131_072,
254
- displayName: 'Qwen 2.5 Coder 32B',
255
- id: 'qwen-2.5-coder-32b',
256
- pricing: {
257
- input: 0.79,
258
- output: 0.79,
259
- },
260
- type: 'chat',
261
- },
262
178
  {
263
179
  contextWindowTokens: 8192,
264
180
  displayName: 'Llama Guard 3 8B',
@@ -8,6 +8,48 @@ import {
8
8
  } from '@/types/aiModel';
9
9
 
10
10
  export const openaiChatModels: AIChatModelCard[] = [
11
+ {
12
+ abilities: {
13
+ functionCall: true,
14
+ reasoning: true,
15
+ vision: true,
16
+ },
17
+ contextWindowTokens: 200_000,
18
+ description:
19
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
20
+ displayName: 'o3',
21
+ enabled: true,
22
+ id: 'o3',
23
+ maxOutput: 100_000,
24
+ pricing: {
25
+ cachedInput: 2.5,
26
+ input: 10,
27
+ output: 40,
28
+ },
29
+ releasedAt: '2025-04-17',
30
+ type: 'chat',
31
+ },
32
+ {
33
+ abilities: {
34
+ functionCall: true,
35
+ reasoning: true,
36
+ vision: true,
37
+ },
38
+ contextWindowTokens: 200_000,
39
+ description:
40
+ 'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
41
+ displayName: 'o4-mini',
42
+ enabled: true,
43
+ id: 'o4-mini',
44
+ maxOutput: 100_000,
45
+ pricing: {
46
+ cachedInput: 0.275,
47
+ input: 1.1,
48
+ output: 4.4,
49
+ },
50
+ releasedAt: '2025-04-17',
51
+ type: 'chat',
52
+ },
11
53
  {
12
54
  abilities: {
13
55
  functionCall: true,
@@ -55,9 +97,8 @@ export const openaiChatModels: AIChatModelCard[] = [
55
97
  },
56
98
  contextWindowTokens: 1_047_576,
57
99
  description:
58
- 'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
100
+ 'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
59
101
  displayName: 'GPT-4.1 nano',
60
- enabled: true,
61
102
  id: 'gpt-4.1-nano',
62
103
  maxOutput: 32_768,
63
104
  pricing: {
@@ -76,8 +117,7 @@ export const openaiChatModels: AIChatModelCard[] = [
76
117
  contextWindowTokens: 200_000,
77
118
  description:
78
119
  'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
79
- displayName: 'OpenAI o3-mini',
80
- enabled: true,
120
+ displayName: 'o3-mini',
81
121
  id: 'o3-mini',
82
122
  maxOutput: 100_000,
83
123
  pricing: {
@@ -95,7 +135,7 @@ export const openaiChatModels: AIChatModelCard[] = [
95
135
  contextWindowTokens: 128_000,
96
136
  description:
97
137
  'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
98
- displayName: 'OpenAI o1-mini',
138
+ displayName: 'o1-mini',
99
139
  id: 'o1-mini',
100
140
  maxOutput: 65_536,
101
141
  pricing: {
@@ -114,8 +154,7 @@ export const openaiChatModels: AIChatModelCard[] = [
114
154
  contextWindowTokens: 200_000,
115
155
  description:
116
156
  'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
117
- displayName: 'OpenAI o1',
118
- enabled: true,
157
+ displayName: 'o1',
119
158
  id: 'o1',
120
159
  maxOutput: 100_000,
121
160
  pricing: {
@@ -133,7 +172,7 @@ export const openaiChatModels: AIChatModelCard[] = [
133
172
  contextWindowTokens: 128_000,
134
173
  description:
135
174
  'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
136
- displayName: 'OpenAI o1-preview',
175
+ displayName: 'o1-preview',
137
176
  id: 'o1-preview',
138
177
  maxOutput: 32_768,
139
178
  pricing: {
@@ -11,11 +11,168 @@ const openrouterChatModels: AIChatModelCard[] = [
11
11
  type: 'chat',
12
12
  },
13
13
  {
14
+ abilities: {
15
+ functionCall: true,
16
+ reasoning: true,
17
+ vision: true,
18
+ },
19
+ contextWindowTokens: 200_000,
20
+ description:
21
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
22
+ displayName: 'o3',
23
+ id: 'o3',
24
+ maxOutput: 100_000,
25
+ pricing: {
26
+ cachedInput: 2.5,
27
+ input: 10,
28
+ output: 40,
29
+ },
30
+ releasedAt: '2025-04-17',
31
+ type: 'chat',
32
+ },
33
+ {
34
+ abilities: {
35
+ functionCall: true,
36
+ reasoning: true,
37
+ vision: true,
38
+ },
39
+ contextWindowTokens: 200_000,
40
+ description:
41
+ 'o4-mini 高推理等级版,专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
42
+ displayName: 'o4-mini (high)',
43
+ id: 'openai/o4-mini-high',
44
+ maxOutput: 100_000,
45
+ pricing: {
46
+ cachedInput: 0.275,
47
+ input: 1.1,
48
+ output: 4.4,
49
+ },
50
+ releasedAt: '2025-04-17',
51
+ type: 'chat',
52
+ },
53
+ {
54
+ abilities: {
55
+ functionCall: true,
56
+ reasoning: true,
57
+ vision: true,
58
+ },
59
+ contextWindowTokens: 200_000,
60
+ description:
61
+ 'o4-mini 专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
62
+ displayName: 'o4-mini',
63
+ id: 'openai/o4-mini',
64
+ maxOutput: 100_000,
65
+ pricing: {
66
+ cachedInput: 0.275,
67
+ input: 1.1,
68
+ output: 4.4,
69
+ },
70
+ releasedAt: '2025-04-17',
71
+ type: 'chat',
72
+ },
73
+ {
74
+ abilities: {
75
+ functionCall: true,
76
+ vision: true,
77
+ },
78
+ contextWindowTokens: 1_047_576,
79
+ description:
80
+ 'GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。',
81
+ displayName: 'GPT-4.1',
82
+ id: 'gpt-4.1',
83
+ maxOutput: 32_768,
84
+ pricing: {
85
+ cachedInput: 0.5,
86
+ input: 2,
87
+ output: 8,
88
+ },
89
+ releasedAt: '2025-04-14',
90
+ type: 'chat',
91
+ },
92
+ {
93
+ abilities: {
94
+ functionCall: true,
95
+ vision: true,
96
+ },
97
+ contextWindowTokens: 1_047_576,
98
+ description:
99
+ 'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
100
+ displayName: 'GPT-4.1 mini',
101
+ id: 'gpt-4.1-mini',
102
+ maxOutput: 32_768,
103
+ pricing: {
104
+ cachedInput: 0.1,
105
+ input: 0.4,
106
+ output: 1.6,
107
+ },
108
+ releasedAt: '2025-04-14',
109
+ type: 'chat',
110
+ },
111
+ {
112
+ abilities: {
113
+ functionCall: true,
114
+ vision: true,
115
+ },
116
+ contextWindowTokens: 1_047_576,
117
+ description:
118
+ 'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
119
+ displayName: 'GPT-4.1 nano',
120
+ id: 'gpt-4.1-nano',
121
+ maxOutput: 32_768,
122
+ pricing: {
123
+ cachedInput: 0.025,
124
+ input: 0.1,
125
+ output: 0.4,
126
+ },
127
+ releasedAt: '2025-04-14',
128
+ type: 'chat',
129
+ },
130
+ {
131
+ abilities: {
132
+ functionCall: true,
133
+ reasoning: true,
134
+ },
135
+ contextWindowTokens: 200_000,
136
+ description:
137
+ 'o3-mini 高推理等级版,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
138
+ displayName: 'o3-mini (high)',
139
+ id: 'o3-mini-high',
140
+ maxOutput: 100_000,
141
+ pricing: {
142
+ cachedInput: 0.55,
143
+ input: 1.1,
144
+ output: 4.4,
145
+ },
146
+ releasedAt: '2025-01-31',
147
+ type: 'chat',
148
+ },
149
+ {
150
+ abilities: {
151
+ functionCall: true,
152
+ reasoning: true,
153
+ },
154
+ contextWindowTokens: 200_000,
155
+ description:
156
+ 'o3-mini 在与 o1-mini 相同的成本和延迟目标下提供高智能。',
157
+ displayName: 'o3-mini',
158
+ id: 'o3-mini',
159
+ maxOutput: 100_000,
160
+ pricing: {
161
+ cachedInput: 0.55,
162
+ input: 1.1,
163
+ output: 4.4,
164
+ },
165
+ releasedAt: '2025-01-31',
166
+ type: 'chat',
167
+ },
168
+ {
169
+ abilities: {
170
+ reasoning: true,
171
+ },
14
172
  contextWindowTokens: 128_000,
15
173
  description:
16
174
  'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
17
- displayName: 'OpenAI o1-mini',
18
- enabled: true,
175
+ displayName: 'o1-mini',
19
176
  id: 'openai/o1-mini',
20
177
  maxOutput: 65_536,
21
178
  pricing: {
@@ -26,11 +183,13 @@ const openrouterChatModels: AIChatModelCard[] = [
26
183
  type: 'chat',
27
184
  },
28
185
  {
186
+ abilities: {
187
+ reasoning: true,
188
+ },
29
189
  contextWindowTokens: 128_000,
30
190
  description:
31
191
  'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
32
- displayName: 'OpenAI o1-preview',
33
- enabled: true,
192
+ displayName: 'o1-preview',
34
193
  id: 'openai/o1-preview',
35
194
  maxOutput: 32_768,
36
195
  pricing: {
@@ -49,7 +208,6 @@ const openrouterChatModels: AIChatModelCard[] = [
49
208
  description:
50
209
  'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
51
210
  displayName: 'GPT-4o mini',
52
- enabled: true,
53
211
  id: 'openai/gpt-4o-mini',
54
212
  maxOutput: 16_385,
55
213
  pricing: {
@@ -67,7 +225,6 @@ const openrouterChatModels: AIChatModelCard[] = [
67
225
  description:
68
226
  'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
69
227
  displayName: 'GPT-4o',
70
- enabled: true,
71
228
  id: 'openai/gpt-4o',
72
229
  pricing: {
73
230
  input: 2.5,
@@ -84,7 +241,6 @@ const openrouterChatModels: AIChatModelCard[] = [
84
241
  description:
85
242
  'Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。',
86
243
  displayName: 'Claude 3 Haiku',
87
- enabled: true,
88
244
  id: 'anthropic/claude-3-haiku',
89
245
  maxOutput: 4096,
90
246
  pricing: {
@@ -104,7 +260,6 @@ const openrouterChatModels: AIChatModelCard[] = [
104
260
  description:
105
261
  'Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。',
106
262
  displayName: 'Claude 3.5 Haiku',
107
- enabled: true,
108
263
  id: 'anthropic/claude-3.5-haiku',
109
264
  maxOutput: 8192,
110
265
  pricing: {
@@ -125,7 +280,6 @@ const openrouterChatModels: AIChatModelCard[] = [
125
280
  description:
126
281
  'Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
127
282
  displayName: 'Claude 3.5 Sonnet',
128
- enabled: true,
129
283
  id: 'anthropic/claude-3.5-sonnet',
130
284
  maxOutput: 8192,
131
285
  pricing: {
@@ -147,7 +301,6 @@ const openrouterChatModels: AIChatModelCard[] = [
147
301
  description:
148
302
  'Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型,也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
149
303
  displayName: 'Claude 3.7 Sonnet',
150
- enabled: true,
151
304
  id: 'anthropic/claude-3.7-sonnet',
152
305
  maxOutput: 8192,
153
306
  pricing: {
@@ -171,7 +324,6 @@ const openrouterChatModels: AIChatModelCard[] = [
171
324
  description:
172
325
  'Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。',
173
326
  displayName: 'Claude 3 Opus',
174
- enabled: true,
175
327
  id: 'anthropic/claude-3-opus',
176
328
  maxOutput: 4096,
177
329
  pricing: {
@@ -191,7 +343,6 @@ const openrouterChatModels: AIChatModelCard[] = [
191
343
  contextWindowTokens: 1_008_192,
192
344
  description: 'Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。',
193
345
  displayName: 'Gemini 1.5 Flash',
194
- enabled: true,
195
346
  id: 'google/gemini-flash-1.5',
196
347
  maxOutput: 8192,
197
348
  pricing: {
@@ -209,7 +360,6 @@ const openrouterChatModels: AIChatModelCard[] = [
209
360
  description:
210
361
  'Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。',
211
362
  displayName: 'Gemini 2.0 Flash',
212
- enabled: true,
213
363
  id: 'google/gemini-2.0-flash-001',
214
364
  maxOutput: 8192,
215
365
  pricing: {
@@ -228,7 +378,6 @@ const openrouterChatModels: AIChatModelCard[] = [
228
378
  contextWindowTokens: 2_008_192,
229
379
  description: 'Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。',
230
380
  displayName: 'Gemini 1.5 Pro',
231
- enabled: true,
232
381
  id: 'google/gemini-pro-1.5',
233
382
  maxOutput: 8192,
234
383
  pricing: {
@@ -245,7 +394,6 @@ const openrouterChatModels: AIChatModelCard[] = [
245
394
  description:
246
395
  '融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。',
247
396
  displayName: 'DeepSeek V2.5',
248
- enabled: true,
249
397
  id: 'deepseek/deepseek-chat',
250
398
  pricing: {
251
399
  input: 0.14,
@@ -262,7 +410,6 @@ const openrouterChatModels: AIChatModelCard[] = [
262
410
  description:
263
411
  'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
264
412
  displayName: 'DeepSeek R1',
265
- enabled: true,
266
413
  id: 'deepseek/deepseek-r1',
267
414
  pricing: {
268
415
  input: 3,
@@ -279,7 +426,6 @@ const openrouterChatModels: AIChatModelCard[] = [
279
426
  description:
280
427
  'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
281
428
  displayName: 'DeepSeek R1 (Free)',
282
- enabled: true,
283
429
  id: 'deepseek/deepseek-r1:free',
284
430
  releasedAt: '2025-01-20',
285
431
  type: 'chat',
@@ -292,7 +438,6 @@ const openrouterChatModels: AIChatModelCard[] = [
292
438
  description:
293
439
  'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
294
440
  displayName: 'Llama 3.2 11B Vision',
295
- enabled: true,
296
441
  id: 'meta-llama/llama-3.2-11b-vision-instruct',
297
442
  pricing: {
298
443
  input: 0.162,
@@ -308,7 +453,6 @@ const openrouterChatModels: AIChatModelCard[] = [
308
453
  description:
309
454
  'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
310
455
  displayName: 'Llama 3.2 90B Vision',
311
- enabled: true,
312
456
  id: 'meta-llama/llama-3.2-90b-vision-instruct',
313
457
  pricing: {
314
458
  input: 0.4,
@@ -324,7 +468,6 @@ const openrouterChatModels: AIChatModelCard[] = [
324
468
  description:
325
469
  'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
326
470
  displayName: 'Llama 3.3 70B Instruct',
327
- enabled: true,
328
471
  id: 'meta-llama/llama-3.3-70b-instruct',
329
472
  pricing: {
330
473
  input: 0.12,
@@ -340,7 +483,6 @@ const openrouterChatModels: AIChatModelCard[] = [
340
483
  description:
341
484
  'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
342
485
  displayName: 'Llama 3.3 70B Instruct (Free)',
343
- enabled: true,
344
486
  id: 'meta-llama/llama-3.3-70b-instruct:free',
345
487
  type: 'chat',
346
488
  },
@@ -348,7 +490,6 @@ const openrouterChatModels: AIChatModelCard[] = [
348
490
  contextWindowTokens: 32_768,
349
491
  description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
350
492
  displayName: 'Qwen2 7B (Free)',
351
- enabled: true,
352
493
  id: 'qwen/qwen-2-7b-instruct:free',
353
494
  type: 'chat',
354
495
  },
@@ -356,7 +497,6 @@ const openrouterChatModels: AIChatModelCard[] = [
356
497
  contextWindowTokens: 32_768,
357
498
  description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
358
499
  displayName: 'Llama 3.1 8B (Free)',
359
- enabled: true,
360
500
  id: 'meta-llama/llama-3.1-8b-instruct:free',
361
501
  type: 'chat',
362
502
  },
@@ -364,7 +504,6 @@ const openrouterChatModels: AIChatModelCard[] = [
364
504
  contextWindowTokens: 8192,
365
505
  description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
366
506
  displayName: 'Gemma 2 9B (Free)',
367
- enabled: true,
368
507
  id: 'google/gemma-2-9b-it:free',
369
508
  type: 'chat',
370
509
  },
@@ -377,7 +516,6 @@ const openrouterChatModels: AIChatModelCard[] = [
377
516
  description:
378
517
  'Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。',
379
518
  displayName: 'Gemini 2.0 Pro Experimental 02-05 (Free)',
380
- enabled: true,
381
519
  id: 'google/gemini-2.0-pro-exp-02-05:free',
382
520
  maxOutput: 8192,
383
521
  releasedAt: '2025-02-05',
@@ -13,6 +13,7 @@ const stepfunChatModels: AIChatModelCard[] = [
13
13
  contextWindowTokens: 100_000,
14
14
  description: '该模型是拥有强大的图像理解能力的推理大模型,能够处理图像和文字信息,经过深度思考后输出文本生成文本内容。该模型在视觉推理领域表现突出,同时拥有第一梯队的数学、代码、文本推理能力。上下文长度为100k。',
15
15
  displayName: 'Step R1 V Mini',
16
+ enabled: true,
16
17
  id: 'step-r1-v-mini',
17
18
  pricing: {
18
19
  currency: 'CNY',
@@ -3,6 +3,17 @@ import { AIChatModelCard } from '@/types/aiModel';
3
3
  // https://docs.wair.ac.cn/maas/jiage.html
4
4
 
5
5
  const taichuChatModels: AIChatModelCard[] = [
6
+ {
7
+ abilities: {
8
+ reasoning: true,
9
+ },
10
+ contextWindowTokens: 32_768,
11
+ description: 'taichu_o1是新一代推理大模型,通过多模态交互和强化学习实现类人思维链,支持复杂决策推演,在保持高精度输出的同时展现可模型推理的思维路径,适用于策略分析与深度思考等场景。',
12
+ displayName: 'Taichu O1',
13
+ enabled: true,
14
+ id: 'taichu_o1',
15
+ type: 'chat',
16
+ },
6
17
  {
7
18
  abilities: {
8
19
  functionCall: true,
@@ -35,6 +46,56 @@ const taichuChatModels: AIChatModelCard[] = [
35
46
  },
36
47
  type: 'chat',
37
48
  },
49
+ {
50
+ abilities: {
51
+ reasoning: true,
52
+ },
53
+ contextWindowTokens: 131_072,
54
+ description: 'DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。',
55
+ displayName: 'DeepSeek R1',
56
+ id: 'deepseek_r1',
57
+ type: 'chat',
58
+ },
59
+ {
60
+ abilities: {
61
+ reasoning: true,
62
+ },
63
+ contextWindowTokens: 131_072,
64
+ description: 'DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。',
65
+ displayName: 'DeepSeek R1 Distill Qwen 14B',
66
+ id: 'deepseek_r1_distill_qwen_14b',
67
+ type: 'chat',
68
+ },
69
+ {
70
+ abilities: {
71
+ reasoning: true,
72
+ },
73
+ contextWindowTokens: 131_072,
74
+ description: 'DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。',
75
+ displayName: 'DeepSeek R1 Distill Qwen 32B',
76
+ id: 'deepseek_r1_distill_qwen_32b',
77
+ type: 'chat',
78
+ },
79
+ {
80
+ abilities: {
81
+ reasoning: true,
82
+ },
83
+ contextWindowTokens: 131_072,
84
+ description: 'DeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 经过蒸馏训练得到的模型。该模型是 DeepSeek-R1 系列的一部分,通过使用 DeepSeek-R1 生成的样本进行微调,在数学、编程和推理等多个领域展现出优秀的性能。',
85
+ displayName: 'DeepSeek R1 Distill Llama 70B',
86
+ id: 'deepseek_r1_distill_llama_70b',
87
+ type: 'chat',
88
+ },
89
+ {
90
+ abilities: {
91
+ reasoning: true,
92
+ },
93
+ contextWindowTokens: 32_768,
94
+ description: 'Qwen 系列中等规模的推理模型。与传统的指令调优模型相比,具备思考和推理能力的 QwQ 在下游任务中,尤其是在解决难题时,能够显著提升性能。',
95
+ displayName: 'QwQ 32B',
96
+ id: 'qwq_32b',
97
+ type: 'chat',
98
+ },
38
99
  ];
39
100
 
40
101
  export const allModels = [...taichuChatModels];