@lobehub/chat 1.80.3 → 1.80.5
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/package.json +1 -1
- package/src/config/aiModels/ai21.ts +10 -6
- package/src/config/aiModels/ai360.ts +36 -2
- package/src/config/aiModels/azure.ts +52 -8
- package/src/config/aiModels/azureai.ts +40 -1
- package/src/config/aiModels/cohere.ts +17 -20
- package/src/config/aiModels/github.ts +131 -16
- package/src/config/aiModels/groq.ts +17 -101
- package/src/config/aiModels/openai.ts +47 -8
- package/src/config/aiModels/openrouter.ts +163 -25
- package/src/config/aiModels/stepfun.ts +1 -0
- package/src/config/aiModels/taichu.ts +61 -0
- package/src/config/aiModels/volcengine.ts +90 -3
- package/src/config/modelProviders/ai21.ts +1 -1
- package/src/database/repositories/aiInfra/index.test.ts +3 -3
@@ -4,6 +4,23 @@ import { AIChatModelCard } from '@/types/aiModel';
|
|
4
4
|
// https://console.groq.com/docs/models
|
5
5
|
|
6
6
|
const groqChatModels: AIChatModelCard[] = [
|
7
|
+
{
|
8
|
+
contextWindowTokens: 131_072,
|
9
|
+
description: 'Compound-beta 是一个复合 AI 系统,由 GroqCloud 中已经支持的多个开放可用的模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
|
10
|
+
displayName: 'Compound Beta',
|
11
|
+
enabled: true,
|
12
|
+
id: 'compound-beta',
|
13
|
+
maxOutput: 8192,
|
14
|
+
type: 'chat',
|
15
|
+
},
|
16
|
+
{
|
17
|
+
contextWindowTokens: 131_072,
|
18
|
+
description: 'Compound-beta-mini 是一个复合 AI 系统,由 GroqCloud 中已经支持的公开可用模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
|
19
|
+
displayName: 'Compound Beta Mini',
|
20
|
+
id: 'compound-beta-mini',
|
21
|
+
maxOutput: 8192,
|
22
|
+
type: 'chat',
|
23
|
+
},
|
7
24
|
{
|
8
25
|
contextWindowTokens: 131_072,
|
9
26
|
displayName: 'Llama 4 Scout (17Bx16E)',
|
@@ -68,21 +85,6 @@ const groqChatModels: AIChatModelCard[] = [
|
|
68
85
|
},
|
69
86
|
type: 'chat',
|
70
87
|
},
|
71
|
-
{
|
72
|
-
abilities: {
|
73
|
-
functionCall: true,
|
74
|
-
reasoning: true,
|
75
|
-
},
|
76
|
-
contextWindowTokens: 131_072,
|
77
|
-
displayName: 'DeepSeek R1 Distill Qwen 32B',
|
78
|
-
id: 'deepseek-r1-distill-qwen-32b',
|
79
|
-
maxOutput: 16_384,
|
80
|
-
pricing: {
|
81
|
-
input: 0.69,
|
82
|
-
output: 0.69,
|
83
|
-
},
|
84
|
-
type: 'chat',
|
85
|
-
},
|
86
88
|
{
|
87
89
|
abilities: {
|
88
90
|
functionCall: true,
|
@@ -112,69 +114,6 @@ const groqChatModels: AIChatModelCard[] = [
|
|
112
114
|
},
|
113
115
|
type: 'chat',
|
114
116
|
},
|
115
|
-
{
|
116
|
-
abilities: {
|
117
|
-
vision: true,
|
118
|
-
},
|
119
|
-
contextWindowTokens: 131_072,
|
120
|
-
description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
121
|
-
displayName: 'Llama 3.2 11B Vision (Preview)',
|
122
|
-
id: 'llama-3.2-11b-vision-preview',
|
123
|
-
maxOutput: 8192,
|
124
|
-
pricing: {
|
125
|
-
input: 0.18,
|
126
|
-
output: 0.18,
|
127
|
-
},
|
128
|
-
type: 'chat',
|
129
|
-
},
|
130
|
-
{
|
131
|
-
abilities: {
|
132
|
-
vision: true,
|
133
|
-
},
|
134
|
-
contextWindowTokens: 131_072,
|
135
|
-
description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
136
|
-
displayName: 'Llama 3.2 90B Vision (Preview)',
|
137
|
-
enabled: true,
|
138
|
-
id: 'llama-3.2-90b-vision-preview',
|
139
|
-
maxOutput: 8192,
|
140
|
-
pricing: {
|
141
|
-
input: 0.9,
|
142
|
-
output: 0.9,
|
143
|
-
},
|
144
|
-
type: 'chat',
|
145
|
-
},
|
146
|
-
{
|
147
|
-
contextWindowTokens: 131_072,
|
148
|
-
displayName: 'Llama 3.2 1B (Preview)',
|
149
|
-
id: 'llama-3.2-1b-preview',
|
150
|
-
maxOutput: 8192,
|
151
|
-
pricing: {
|
152
|
-
input: 0.04,
|
153
|
-
output: 0.04,
|
154
|
-
},
|
155
|
-
type: 'chat',
|
156
|
-
},
|
157
|
-
{
|
158
|
-
contextWindowTokens: 131_072,
|
159
|
-
displayName: 'Llama 3.2 3B (Preview)',
|
160
|
-
id: 'llama-3.2-3b-preview',
|
161
|
-
maxOutput: 8192,
|
162
|
-
pricing: {
|
163
|
-
input: 0.06,
|
164
|
-
output: 0.06,
|
165
|
-
},
|
166
|
-
type: 'chat',
|
167
|
-
},
|
168
|
-
{
|
169
|
-
contextWindowTokens: 8192,
|
170
|
-
displayName: 'Llama 3.3 70B SpecDec',
|
171
|
-
id: 'llama-3.3-70b-specdec',
|
172
|
-
pricing: {
|
173
|
-
input: 0.59,
|
174
|
-
output: 0.99,
|
175
|
-
},
|
176
|
-
type: 'chat',
|
177
|
-
},
|
178
117
|
{
|
179
118
|
abilities: {
|
180
119
|
functionCall: true,
|
@@ -236,29 +175,6 @@ const groqChatModels: AIChatModelCard[] = [
|
|
236
175
|
},
|
237
176
|
type: 'chat',
|
238
177
|
},
|
239
|
-
{
|
240
|
-
abilities: {
|
241
|
-
functionCall: true,
|
242
|
-
},
|
243
|
-
contextWindowTokens: 131_072,
|
244
|
-
displayName: 'Qwen 2.5 32B',
|
245
|
-
id: 'qwen-2.5-32b',
|
246
|
-
pricing: {
|
247
|
-
input: 0.79,
|
248
|
-
output: 0.79,
|
249
|
-
},
|
250
|
-
type: 'chat',
|
251
|
-
},
|
252
|
-
{
|
253
|
-
contextWindowTokens: 131_072,
|
254
|
-
displayName: 'Qwen 2.5 Coder 32B',
|
255
|
-
id: 'qwen-2.5-coder-32b',
|
256
|
-
pricing: {
|
257
|
-
input: 0.79,
|
258
|
-
output: 0.79,
|
259
|
-
},
|
260
|
-
type: 'chat',
|
261
|
-
},
|
262
178
|
{
|
263
179
|
contextWindowTokens: 8192,
|
264
180
|
displayName: 'Llama Guard 3 8B',
|
@@ -8,6 +8,48 @@ import {
|
|
8
8
|
} from '@/types/aiModel';
|
9
9
|
|
10
10
|
export const openaiChatModels: AIChatModelCard[] = [
|
11
|
+
{
|
12
|
+
abilities: {
|
13
|
+
functionCall: true,
|
14
|
+
reasoning: true,
|
15
|
+
vision: true,
|
16
|
+
},
|
17
|
+
contextWindowTokens: 200_000,
|
18
|
+
description:
|
19
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
20
|
+
displayName: 'o3',
|
21
|
+
enabled: true,
|
22
|
+
id: 'o3',
|
23
|
+
maxOutput: 100_000,
|
24
|
+
pricing: {
|
25
|
+
cachedInput: 2.5,
|
26
|
+
input: 10,
|
27
|
+
output: 40,
|
28
|
+
},
|
29
|
+
releasedAt: '2025-04-17',
|
30
|
+
type: 'chat',
|
31
|
+
},
|
32
|
+
{
|
33
|
+
abilities: {
|
34
|
+
functionCall: true,
|
35
|
+
reasoning: true,
|
36
|
+
vision: true,
|
37
|
+
},
|
38
|
+
contextWindowTokens: 200_000,
|
39
|
+
description:
|
40
|
+
'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
41
|
+
displayName: 'o4-mini',
|
42
|
+
enabled: true,
|
43
|
+
id: 'o4-mini',
|
44
|
+
maxOutput: 100_000,
|
45
|
+
pricing: {
|
46
|
+
cachedInput: 0.275,
|
47
|
+
input: 1.1,
|
48
|
+
output: 4.4,
|
49
|
+
},
|
50
|
+
releasedAt: '2025-04-17',
|
51
|
+
type: 'chat',
|
52
|
+
},
|
11
53
|
{
|
12
54
|
abilities: {
|
13
55
|
functionCall: true,
|
@@ -55,9 +97,8 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
55
97
|
},
|
56
98
|
contextWindowTokens: 1_047_576,
|
57
99
|
description:
|
58
|
-
'GPT-4.1
|
100
|
+
'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
|
59
101
|
displayName: 'GPT-4.1 nano',
|
60
|
-
enabled: true,
|
61
102
|
id: 'gpt-4.1-nano',
|
62
103
|
maxOutput: 32_768,
|
63
104
|
pricing: {
|
@@ -76,8 +117,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
76
117
|
contextWindowTokens: 200_000,
|
77
118
|
description:
|
78
119
|
'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
79
|
-
displayName: '
|
80
|
-
enabled: true,
|
120
|
+
displayName: 'o3-mini',
|
81
121
|
id: 'o3-mini',
|
82
122
|
maxOutput: 100_000,
|
83
123
|
pricing: {
|
@@ -95,7 +135,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
95
135
|
contextWindowTokens: 128_000,
|
96
136
|
description:
|
97
137
|
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
98
|
-
displayName: '
|
138
|
+
displayName: 'o1-mini',
|
99
139
|
id: 'o1-mini',
|
100
140
|
maxOutput: 65_536,
|
101
141
|
pricing: {
|
@@ -114,8 +154,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
114
154
|
contextWindowTokens: 200_000,
|
115
155
|
description:
|
116
156
|
'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
|
117
|
-
displayName: '
|
118
|
-
enabled: true,
|
157
|
+
displayName: 'o1',
|
119
158
|
id: 'o1',
|
120
159
|
maxOutput: 100_000,
|
121
160
|
pricing: {
|
@@ -133,7 +172,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
133
172
|
contextWindowTokens: 128_000,
|
134
173
|
description:
|
135
174
|
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
136
|
-
displayName: '
|
175
|
+
displayName: 'o1-preview',
|
137
176
|
id: 'o1-preview',
|
138
177
|
maxOutput: 32_768,
|
139
178
|
pricing: {
|
@@ -11,11 +11,168 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
11
11
|
type: 'chat',
|
12
12
|
},
|
13
13
|
{
|
14
|
+
abilities: {
|
15
|
+
functionCall: true,
|
16
|
+
reasoning: true,
|
17
|
+
vision: true,
|
18
|
+
},
|
19
|
+
contextWindowTokens: 200_000,
|
20
|
+
description:
|
21
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
22
|
+
displayName: 'o3',
|
23
|
+
id: 'o3',
|
24
|
+
maxOutput: 100_000,
|
25
|
+
pricing: {
|
26
|
+
cachedInput: 2.5,
|
27
|
+
input: 10,
|
28
|
+
output: 40,
|
29
|
+
},
|
30
|
+
releasedAt: '2025-04-17',
|
31
|
+
type: 'chat',
|
32
|
+
},
|
33
|
+
{
|
34
|
+
abilities: {
|
35
|
+
functionCall: true,
|
36
|
+
reasoning: true,
|
37
|
+
vision: true,
|
38
|
+
},
|
39
|
+
contextWindowTokens: 200_000,
|
40
|
+
description:
|
41
|
+
'o4-mini 高推理等级版,专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
42
|
+
displayName: 'o4-mini (high)',
|
43
|
+
id: 'openai/o4-mini-high',
|
44
|
+
maxOutput: 100_000,
|
45
|
+
pricing: {
|
46
|
+
cachedInput: 0.275,
|
47
|
+
input: 1.1,
|
48
|
+
output: 4.4,
|
49
|
+
},
|
50
|
+
releasedAt: '2025-04-17',
|
51
|
+
type: 'chat',
|
52
|
+
},
|
53
|
+
{
|
54
|
+
abilities: {
|
55
|
+
functionCall: true,
|
56
|
+
reasoning: true,
|
57
|
+
vision: true,
|
58
|
+
},
|
59
|
+
contextWindowTokens: 200_000,
|
60
|
+
description:
|
61
|
+
'o4-mini 专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
62
|
+
displayName: 'o4-mini',
|
63
|
+
id: 'openai/o4-mini',
|
64
|
+
maxOutput: 100_000,
|
65
|
+
pricing: {
|
66
|
+
cachedInput: 0.275,
|
67
|
+
input: 1.1,
|
68
|
+
output: 4.4,
|
69
|
+
},
|
70
|
+
releasedAt: '2025-04-17',
|
71
|
+
type: 'chat',
|
72
|
+
},
|
73
|
+
{
|
74
|
+
abilities: {
|
75
|
+
functionCall: true,
|
76
|
+
vision: true,
|
77
|
+
},
|
78
|
+
contextWindowTokens: 1_047_576,
|
79
|
+
description:
|
80
|
+
'GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。',
|
81
|
+
displayName: 'GPT-4.1',
|
82
|
+
id: 'gpt-4.1',
|
83
|
+
maxOutput: 32_768,
|
84
|
+
pricing: {
|
85
|
+
cachedInput: 0.5,
|
86
|
+
input: 2,
|
87
|
+
output: 8,
|
88
|
+
},
|
89
|
+
releasedAt: '2025-04-14',
|
90
|
+
type: 'chat',
|
91
|
+
},
|
92
|
+
{
|
93
|
+
abilities: {
|
94
|
+
functionCall: true,
|
95
|
+
vision: true,
|
96
|
+
},
|
97
|
+
contextWindowTokens: 1_047_576,
|
98
|
+
description:
|
99
|
+
'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
|
100
|
+
displayName: 'GPT-4.1 mini',
|
101
|
+
id: 'gpt-4.1-mini',
|
102
|
+
maxOutput: 32_768,
|
103
|
+
pricing: {
|
104
|
+
cachedInput: 0.1,
|
105
|
+
input: 0.4,
|
106
|
+
output: 1.6,
|
107
|
+
},
|
108
|
+
releasedAt: '2025-04-14',
|
109
|
+
type: 'chat',
|
110
|
+
},
|
111
|
+
{
|
112
|
+
abilities: {
|
113
|
+
functionCall: true,
|
114
|
+
vision: true,
|
115
|
+
},
|
116
|
+
contextWindowTokens: 1_047_576,
|
117
|
+
description:
|
118
|
+
'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
|
119
|
+
displayName: 'GPT-4.1 nano',
|
120
|
+
id: 'gpt-4.1-nano',
|
121
|
+
maxOutput: 32_768,
|
122
|
+
pricing: {
|
123
|
+
cachedInput: 0.025,
|
124
|
+
input: 0.1,
|
125
|
+
output: 0.4,
|
126
|
+
},
|
127
|
+
releasedAt: '2025-04-14',
|
128
|
+
type: 'chat',
|
129
|
+
},
|
130
|
+
{
|
131
|
+
abilities: {
|
132
|
+
functionCall: true,
|
133
|
+
reasoning: true,
|
134
|
+
},
|
135
|
+
contextWindowTokens: 200_000,
|
136
|
+
description:
|
137
|
+
'o3-mini 高推理等级版,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
138
|
+
displayName: 'o3-mini (high)',
|
139
|
+
id: 'o3-mini-high',
|
140
|
+
maxOutput: 100_000,
|
141
|
+
pricing: {
|
142
|
+
cachedInput: 0.55,
|
143
|
+
input: 1.1,
|
144
|
+
output: 4.4,
|
145
|
+
},
|
146
|
+
releasedAt: '2025-01-31',
|
147
|
+
type: 'chat',
|
148
|
+
},
|
149
|
+
{
|
150
|
+
abilities: {
|
151
|
+
functionCall: true,
|
152
|
+
reasoning: true,
|
153
|
+
},
|
154
|
+
contextWindowTokens: 200_000,
|
155
|
+
description:
|
156
|
+
'o3-mini 在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
157
|
+
displayName: 'o3-mini',
|
158
|
+
id: 'o3-mini',
|
159
|
+
maxOutput: 100_000,
|
160
|
+
pricing: {
|
161
|
+
cachedInput: 0.55,
|
162
|
+
input: 1.1,
|
163
|
+
output: 4.4,
|
164
|
+
},
|
165
|
+
releasedAt: '2025-01-31',
|
166
|
+
type: 'chat',
|
167
|
+
},
|
168
|
+
{
|
169
|
+
abilities: {
|
170
|
+
reasoning: true,
|
171
|
+
},
|
14
172
|
contextWindowTokens: 128_000,
|
15
173
|
description:
|
16
174
|
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
17
|
-
displayName: '
|
18
|
-
enabled: true,
|
175
|
+
displayName: 'o1-mini',
|
19
176
|
id: 'openai/o1-mini',
|
20
177
|
maxOutput: 65_536,
|
21
178
|
pricing: {
|
@@ -26,11 +183,13 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
26
183
|
type: 'chat',
|
27
184
|
},
|
28
185
|
{
|
186
|
+
abilities: {
|
187
|
+
reasoning: true,
|
188
|
+
},
|
29
189
|
contextWindowTokens: 128_000,
|
30
190
|
description:
|
31
191
|
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
32
|
-
displayName: '
|
33
|
-
enabled: true,
|
192
|
+
displayName: 'o1-preview',
|
34
193
|
id: 'openai/o1-preview',
|
35
194
|
maxOutput: 32_768,
|
36
195
|
pricing: {
|
@@ -49,7 +208,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
49
208
|
description:
|
50
209
|
'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
|
51
210
|
displayName: 'GPT-4o mini',
|
52
|
-
enabled: true,
|
53
211
|
id: 'openai/gpt-4o-mini',
|
54
212
|
maxOutput: 16_385,
|
55
213
|
pricing: {
|
@@ -67,7 +225,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
67
225
|
description:
|
68
226
|
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
69
227
|
displayName: 'GPT-4o',
|
70
|
-
enabled: true,
|
71
228
|
id: 'openai/gpt-4o',
|
72
229
|
pricing: {
|
73
230
|
input: 2.5,
|
@@ -84,7 +241,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
84
241
|
description:
|
85
242
|
'Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。',
|
86
243
|
displayName: 'Claude 3 Haiku',
|
87
|
-
enabled: true,
|
88
244
|
id: 'anthropic/claude-3-haiku',
|
89
245
|
maxOutput: 4096,
|
90
246
|
pricing: {
|
@@ -104,7 +260,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
104
260
|
description:
|
105
261
|
'Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。',
|
106
262
|
displayName: 'Claude 3.5 Haiku',
|
107
|
-
enabled: true,
|
108
263
|
id: 'anthropic/claude-3.5-haiku',
|
109
264
|
maxOutput: 8192,
|
110
265
|
pricing: {
|
@@ -125,7 +280,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
125
280
|
description:
|
126
281
|
'Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
|
127
282
|
displayName: 'Claude 3.5 Sonnet',
|
128
|
-
enabled: true,
|
129
283
|
id: 'anthropic/claude-3.5-sonnet',
|
130
284
|
maxOutput: 8192,
|
131
285
|
pricing: {
|
@@ -147,7 +301,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
147
301
|
description:
|
148
302
|
'Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型,也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
|
149
303
|
displayName: 'Claude 3.7 Sonnet',
|
150
|
-
enabled: true,
|
151
304
|
id: 'anthropic/claude-3.7-sonnet',
|
152
305
|
maxOutput: 8192,
|
153
306
|
pricing: {
|
@@ -171,7 +324,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
171
324
|
description:
|
172
325
|
'Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。',
|
173
326
|
displayName: 'Claude 3 Opus',
|
174
|
-
enabled: true,
|
175
327
|
id: 'anthropic/claude-3-opus',
|
176
328
|
maxOutput: 4096,
|
177
329
|
pricing: {
|
@@ -191,7 +343,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
191
343
|
contextWindowTokens: 1_008_192,
|
192
344
|
description: 'Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。',
|
193
345
|
displayName: 'Gemini 1.5 Flash',
|
194
|
-
enabled: true,
|
195
346
|
id: 'google/gemini-flash-1.5',
|
196
347
|
maxOutput: 8192,
|
197
348
|
pricing: {
|
@@ -209,7 +360,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
209
360
|
description:
|
210
361
|
'Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。',
|
211
362
|
displayName: 'Gemini 2.0 Flash',
|
212
|
-
enabled: true,
|
213
363
|
id: 'google/gemini-2.0-flash-001',
|
214
364
|
maxOutput: 8192,
|
215
365
|
pricing: {
|
@@ -228,7 +378,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
228
378
|
contextWindowTokens: 2_008_192,
|
229
379
|
description: 'Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。',
|
230
380
|
displayName: 'Gemini 1.5 Pro',
|
231
|
-
enabled: true,
|
232
381
|
id: 'google/gemini-pro-1.5',
|
233
382
|
maxOutput: 8192,
|
234
383
|
pricing: {
|
@@ -245,7 +394,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
245
394
|
description:
|
246
395
|
'融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。',
|
247
396
|
displayName: 'DeepSeek V2.5',
|
248
|
-
enabled: true,
|
249
397
|
id: 'deepseek/deepseek-chat',
|
250
398
|
pricing: {
|
251
399
|
input: 0.14,
|
@@ -262,7 +410,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
262
410
|
description:
|
263
411
|
'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
|
264
412
|
displayName: 'DeepSeek R1',
|
265
|
-
enabled: true,
|
266
413
|
id: 'deepseek/deepseek-r1',
|
267
414
|
pricing: {
|
268
415
|
input: 3,
|
@@ -279,7 +426,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
279
426
|
description:
|
280
427
|
'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
|
281
428
|
displayName: 'DeepSeek R1 (Free)',
|
282
|
-
enabled: true,
|
283
429
|
id: 'deepseek/deepseek-r1:free',
|
284
430
|
releasedAt: '2025-01-20',
|
285
431
|
type: 'chat',
|
@@ -292,7 +438,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
292
438
|
description:
|
293
439
|
'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
294
440
|
displayName: 'Llama 3.2 11B Vision',
|
295
|
-
enabled: true,
|
296
441
|
id: 'meta-llama/llama-3.2-11b-vision-instruct',
|
297
442
|
pricing: {
|
298
443
|
input: 0.162,
|
@@ -308,7 +453,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
308
453
|
description:
|
309
454
|
'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
310
455
|
displayName: 'Llama 3.2 90B Vision',
|
311
|
-
enabled: true,
|
312
456
|
id: 'meta-llama/llama-3.2-90b-vision-instruct',
|
313
457
|
pricing: {
|
314
458
|
input: 0.4,
|
@@ -324,7 +468,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
324
468
|
description:
|
325
469
|
'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
|
326
470
|
displayName: 'Llama 3.3 70B Instruct',
|
327
|
-
enabled: true,
|
328
471
|
id: 'meta-llama/llama-3.3-70b-instruct',
|
329
472
|
pricing: {
|
330
473
|
input: 0.12,
|
@@ -340,7 +483,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
340
483
|
description:
|
341
484
|
'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
|
342
485
|
displayName: 'Llama 3.3 70B Instruct (Free)',
|
343
|
-
enabled: true,
|
344
486
|
id: 'meta-llama/llama-3.3-70b-instruct:free',
|
345
487
|
type: 'chat',
|
346
488
|
},
|
@@ -348,7 +490,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
348
490
|
contextWindowTokens: 32_768,
|
349
491
|
description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
|
350
492
|
displayName: 'Qwen2 7B (Free)',
|
351
|
-
enabled: true,
|
352
493
|
id: 'qwen/qwen-2-7b-instruct:free',
|
353
494
|
type: 'chat',
|
354
495
|
},
|
@@ -356,7 +497,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
356
497
|
contextWindowTokens: 32_768,
|
357
498
|
description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
|
358
499
|
displayName: 'Llama 3.1 8B (Free)',
|
359
|
-
enabled: true,
|
360
500
|
id: 'meta-llama/llama-3.1-8b-instruct:free',
|
361
501
|
type: 'chat',
|
362
502
|
},
|
@@ -364,7 +504,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
364
504
|
contextWindowTokens: 8192,
|
365
505
|
description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
|
366
506
|
displayName: 'Gemma 2 9B (Free)',
|
367
|
-
enabled: true,
|
368
507
|
id: 'google/gemma-2-9b-it:free',
|
369
508
|
type: 'chat',
|
370
509
|
},
|
@@ -377,7 +516,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
377
516
|
description:
|
378
517
|
'Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。',
|
379
518
|
displayName: 'Gemini 2.0 Pro Experimental 02-05 (Free)',
|
380
|
-
enabled: true,
|
381
519
|
id: 'google/gemini-2.0-pro-exp-02-05:free',
|
382
520
|
maxOutput: 8192,
|
383
521
|
releasedAt: '2025-02-05',
|
@@ -13,6 +13,7 @@ const stepfunChatModels: AIChatModelCard[] = [
|
|
13
13
|
contextWindowTokens: 100_000,
|
14
14
|
description: '该模型是拥有强大的图像理解能力的推理大模型,能够处理图像和文字信息,经过深度思考后输出文本生成文本内容。该模型在视觉推理领域表现突出,同时拥有第一梯队的数学、代码、文本推理能力。上下文长度为100k。',
|
15
15
|
displayName: 'Step R1 V Mini',
|
16
|
+
enabled: true,
|
16
17
|
id: 'step-r1-v-mini',
|
17
18
|
pricing: {
|
18
19
|
currency: 'CNY',
|
@@ -3,6 +3,17 @@ import { AIChatModelCard } from '@/types/aiModel';
|
|
3
3
|
// https://docs.wair.ac.cn/maas/jiage.html
|
4
4
|
|
5
5
|
const taichuChatModels: AIChatModelCard[] = [
|
6
|
+
{
|
7
|
+
abilities: {
|
8
|
+
reasoning: true,
|
9
|
+
},
|
10
|
+
contextWindowTokens: 32_768,
|
11
|
+
description: 'taichu_o1是新一代推理大模型,通过多模态交互和强化学习实现类人思维链,支持复杂决策推演,在保持高精度输出的同时展现可模型推理的思维路径,适用于策略分析与深度思考等场景。',
|
12
|
+
displayName: 'Taichu O1',
|
13
|
+
enabled: true,
|
14
|
+
id: 'taichu_o1',
|
15
|
+
type: 'chat',
|
16
|
+
},
|
6
17
|
{
|
7
18
|
abilities: {
|
8
19
|
functionCall: true,
|
@@ -35,6 +46,56 @@ const taichuChatModels: AIChatModelCard[] = [
|
|
35
46
|
},
|
36
47
|
type: 'chat',
|
37
48
|
},
|
49
|
+
{
|
50
|
+
abilities: {
|
51
|
+
reasoning: true,
|
52
|
+
},
|
53
|
+
contextWindowTokens: 131_072,
|
54
|
+
description: 'DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。',
|
55
|
+
displayName: 'DeepSeek R1',
|
56
|
+
id: 'deepseek_r1',
|
57
|
+
type: 'chat',
|
58
|
+
},
|
59
|
+
{
|
60
|
+
abilities: {
|
61
|
+
reasoning: true,
|
62
|
+
},
|
63
|
+
contextWindowTokens: 131_072,
|
64
|
+
description: 'DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。',
|
65
|
+
displayName: 'DeepSeek R1 Distill Qwen 14B',
|
66
|
+
id: 'deepseek_r1_distill_qwen_14b',
|
67
|
+
type: 'chat',
|
68
|
+
},
|
69
|
+
{
|
70
|
+
abilities: {
|
71
|
+
reasoning: true,
|
72
|
+
},
|
73
|
+
contextWindowTokens: 131_072,
|
74
|
+
description: 'DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。',
|
75
|
+
displayName: 'DeepSeek R1 Distill Qwen 32B',
|
76
|
+
id: 'deepseek_r1_distill_qwen_32b',
|
77
|
+
type: 'chat',
|
78
|
+
},
|
79
|
+
{
|
80
|
+
abilities: {
|
81
|
+
reasoning: true,
|
82
|
+
},
|
83
|
+
contextWindowTokens: 131_072,
|
84
|
+
description: 'DeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 经过蒸馏训练得到的模型。该模型是 DeepSeek-R1 系列的一部分,通过使用 DeepSeek-R1 生成的样本进行微调,在数学、编程和推理等多个领域展现出优秀的性能。',
|
85
|
+
displayName: 'DeepSeek R1 Distill Llama 70B',
|
86
|
+
id: 'deepseek_r1_distill_llama_70b',
|
87
|
+
type: 'chat',
|
88
|
+
},
|
89
|
+
{
|
90
|
+
abilities: {
|
91
|
+
reasoning: true,
|
92
|
+
},
|
93
|
+
contextWindowTokens: 32_768,
|
94
|
+
description: 'Qwen 系列中等规模的推理模型。与传统的指令调优模型相比,具备思考和推理能力的 QwQ 在下游任务中,尤其是在解决难题时,能够显著提升性能。',
|
95
|
+
displayName: 'QwQ 32B',
|
96
|
+
id: 'qwq_32b',
|
97
|
+
type: 'chat',
|
98
|
+
},
|
38
99
|
];
|
39
100
|
|
40
101
|
export const allModels = [...taichuChatModels];
|