@lobehub/chat 1.80.3 → 1.80.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/package.json +1 -1
- package/src/config/aiModels/azure.ts +52 -8
- package/src/config/aiModels/azureai.ts +40 -1
- package/src/config/aiModels/cohere.ts +17 -20
- package/src/config/aiModels/github.ts +131 -16
- package/src/config/aiModels/groq.ts +17 -101
- package/src/config/aiModels/openai.ts +47 -8
- package/src/config/aiModels/openrouter.ts +163 -25
- package/src/config/aiModels/volcengine.ts +90 -2
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,31 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.80.4](https://github.com/lobehub/lobe-chat/compare/v1.80.3...v1.80.4)
|
6
|
+
|
7
|
+
<sup>Released on **2025-04-17**</sup>
|
8
|
+
|
9
|
+
#### 💄 Styles
|
10
|
+
|
11
|
+
- **misc**: Add o3/o4-mini models.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Styles
|
19
|
+
|
20
|
+
- **misc**: Add o3/o4-mini models, closes [#7448](https://github.com/lobehub/lobe-chat/issues/7448) ([3fdba72](https://github.com/lobehub/lobe-chat/commit/3fdba72))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
5
30
|
### [Version 1.80.3](https://github.com/lobehub/lobe-chat/compare/v1.80.2...v1.80.3)
|
6
31
|
|
7
32
|
<sup>Released on **2025-04-16**</sup>
|
package/changelog/v1.json
CHANGED
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.80.
|
3
|
+
"version": "1.80.4",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -1,6 +1,54 @@
|
|
1
1
|
import { AIChatModelCard } from '@/types/aiModel';
|
2
2
|
|
3
3
|
const azureChatModels: AIChatModelCard[] = [
|
4
|
+
{
|
5
|
+
abilities: {
|
6
|
+
functionCall: true,
|
7
|
+
reasoning: true,
|
8
|
+
vision: true,
|
9
|
+
},
|
10
|
+
config: {
|
11
|
+
deploymentName: 'o3',
|
12
|
+
},
|
13
|
+
contextWindowTokens: 200_000,
|
14
|
+
description:
|
15
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
16
|
+
displayName: 'o3',
|
17
|
+
enabled: true,
|
18
|
+
id: 'o3',
|
19
|
+
maxOutput: 100_000,
|
20
|
+
pricing: {
|
21
|
+
cachedInput: 2.5,
|
22
|
+
input: 10,
|
23
|
+
output: 40,
|
24
|
+
},
|
25
|
+
releasedAt: '2025-04-17',
|
26
|
+
type: 'chat',
|
27
|
+
},
|
28
|
+
{
|
29
|
+
abilities: {
|
30
|
+
functionCall: true,
|
31
|
+
reasoning: true,
|
32
|
+
vision: true,
|
33
|
+
},
|
34
|
+
config: {
|
35
|
+
deploymentName: 'o4-mini',
|
36
|
+
},
|
37
|
+
contextWindowTokens: 200_000,
|
38
|
+
description:
|
39
|
+
'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
40
|
+
displayName: 'o4-mini',
|
41
|
+
enabled: true,
|
42
|
+
id: 'o4-mini',
|
43
|
+
maxOutput: 100_000,
|
44
|
+
pricing: {
|
45
|
+
cachedInput: 0.275,
|
46
|
+
input: 1.1,
|
47
|
+
output: 4.4,
|
48
|
+
},
|
49
|
+
releasedAt: '2025-04-17',
|
50
|
+
type: 'chat',
|
51
|
+
},
|
4
52
|
{
|
5
53
|
abilities: {
|
6
54
|
functionCall: true,
|
@@ -59,7 +107,6 @@ const azureChatModels: AIChatModelCard[] = [
|
|
59
107
|
description:
|
60
108
|
'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
|
61
109
|
displayName: 'GPT-4.1 nano',
|
62
|
-
enabled: true,
|
63
110
|
id: 'gpt-4.1-nano',
|
64
111
|
maxOutput: 32_768,
|
65
112
|
pricing: {
|
@@ -81,7 +128,7 @@ const azureChatModels: AIChatModelCard[] = [
|
|
81
128
|
contextWindowTokens: 200_000,
|
82
129
|
description:
|
83
130
|
'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
84
|
-
displayName: '
|
131
|
+
displayName: 'o3-mini',
|
85
132
|
id: 'o3-mini',
|
86
133
|
maxOutput: 100_000,
|
87
134
|
pricing: {
|
@@ -102,8 +149,7 @@ const azureChatModels: AIChatModelCard[] = [
|
|
102
149
|
contextWindowTokens: 128_000,
|
103
150
|
description:
|
104
151
|
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
105
|
-
displayName: '
|
106
|
-
enabled: true,
|
152
|
+
displayName: 'o1-mini',
|
107
153
|
id: 'o1-mini',
|
108
154
|
maxOutput: 65_536,
|
109
155
|
pricing: {
|
@@ -124,8 +170,7 @@ const azureChatModels: AIChatModelCard[] = [
|
|
124
170
|
contextWindowTokens: 200_000,
|
125
171
|
description:
|
126
172
|
'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
|
127
|
-
displayName: '
|
128
|
-
enabled: true,
|
173
|
+
displayName: 'o1',
|
129
174
|
id: 'o1',
|
130
175
|
maxOutput: 100_000,
|
131
176
|
pricing: {
|
@@ -146,7 +191,7 @@ const azureChatModels: AIChatModelCard[] = [
|
|
146
191
|
contextWindowTokens: 128_000,
|
147
192
|
description:
|
148
193
|
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
149
|
-
displayName: '
|
194
|
+
displayName: 'o1-preview',
|
150
195
|
id: 'o1-preview',
|
151
196
|
maxOutput: 32_768,
|
152
197
|
pricing: {
|
@@ -205,7 +250,6 @@ const azureChatModels: AIChatModelCard[] = [
|
|
205
250
|
contextWindowTokens: 128_000,
|
206
251
|
description: 'GPT-4o Mini,小型高效模型,具备与GPT-4o相似的卓越性能。',
|
207
252
|
displayName: 'GPT 4o Mini',
|
208
|
-
enabled: true,
|
209
253
|
id: 'gpt-4o-mini',
|
210
254
|
maxOutput: 4096,
|
211
255
|
pricing: {
|
@@ -27,6 +27,46 @@ const azureChatModels: AIChatModelCard[] = [
|
|
27
27
|
},
|
28
28
|
type: 'chat',
|
29
29
|
},
|
30
|
+
{
|
31
|
+
abilities: {
|
32
|
+
functionCall: true,
|
33
|
+
reasoning: true,
|
34
|
+
vision: true,
|
35
|
+
},
|
36
|
+
contextWindowTokens: 200_000,
|
37
|
+
description:
|
38
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
39
|
+
displayName: 'o3',
|
40
|
+
id: 'o3',
|
41
|
+
maxOutput: 100_000,
|
42
|
+
pricing: {
|
43
|
+
cachedInput: 2.5,
|
44
|
+
input: 10,
|
45
|
+
output: 40,
|
46
|
+
},
|
47
|
+
releasedAt: '2025-04-17',
|
48
|
+
type: 'chat',
|
49
|
+
},
|
50
|
+
{
|
51
|
+
abilities: {
|
52
|
+
functionCall: true,
|
53
|
+
reasoning: true,
|
54
|
+
vision: true,
|
55
|
+
},
|
56
|
+
contextWindowTokens: 200_000,
|
57
|
+
description:
|
58
|
+
'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
59
|
+
displayName: 'o4-mini',
|
60
|
+
id: 'o4-mini',
|
61
|
+
maxOutput: 100_000,
|
62
|
+
pricing: {
|
63
|
+
cachedInput: 0.275,
|
64
|
+
input: 1.1,
|
65
|
+
output: 4.4,
|
66
|
+
},
|
67
|
+
releasedAt: '2025-04-17',
|
68
|
+
type: 'chat',
|
69
|
+
},
|
30
70
|
{
|
31
71
|
abilities: {
|
32
72
|
functionCall: true,
|
@@ -76,7 +116,6 @@ const azureChatModels: AIChatModelCard[] = [
|
|
76
116
|
description:
|
77
117
|
'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
|
78
118
|
displayName: 'GPT-4.1 nano',
|
79
|
-
enabled: true,
|
80
119
|
id: 'gpt-4.1-nano',
|
81
120
|
maxOutput: 32_768,
|
82
121
|
pricing: {
|
@@ -8,7 +8,7 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
8
8
|
contextWindowTokens: 256_000,
|
9
9
|
description:
|
10
10
|
'Command A 是我们迄今为止性能最强的模型,在工具使用、代理、检索增强生成(RAG)和多语言应用场景方面表现出色。Command A 具有 256K 的上下文长度,仅需两块 GPU 即可运行,并且相比于 Command R+ 08-2024,吞吐量提高了 150%。',
|
11
|
-
displayName: 'Command A
|
11
|
+
displayName: 'Command A 2503',
|
12
12
|
enabled: true,
|
13
13
|
id: 'command-a-03-2025',
|
14
14
|
maxOutput: 8000,
|
@@ -25,13 +25,12 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
25
25
|
contextWindowTokens: 128_000,
|
26
26
|
description:
|
27
27
|
'command-r-plus 是 command-r-plus-04-2024 的别名,因此如果您在 API 中使用 command-r-plus,实际上指向的就是该模型。',
|
28
|
-
displayName: 'Command R+',
|
29
|
-
|
30
|
-
id: 'command-r-plus',
|
28
|
+
displayName: 'Command R+ 2404',
|
29
|
+
id: 'command-r-plus-04-2024',
|
31
30
|
maxOutput: 4000,
|
32
31
|
pricing: {
|
33
|
-
input:
|
34
|
-
output:
|
32
|
+
input: 3,
|
33
|
+
output: 15
|
35
34
|
},
|
36
35
|
type: 'chat'
|
37
36
|
},
|
@@ -42,12 +41,13 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
42
41
|
contextWindowTokens: 128_000,
|
43
42
|
description:
|
44
43
|
'Command R+ 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它最适用于复杂的 RAG 工作流和多步工具使用。',
|
45
|
-
displayName: 'Command R+
|
46
|
-
|
44
|
+
displayName: 'Command R+ 2408',
|
45
|
+
enabled: true,
|
46
|
+
id: 'command-r-plus-08-2024',
|
47
47
|
maxOutput: 4000,
|
48
48
|
pricing: {
|
49
|
-
input:
|
50
|
-
output:
|
49
|
+
input: 2.5,
|
50
|
+
output: 10
|
51
51
|
},
|
52
52
|
type: 'chat'
|
53
53
|
},
|
@@ -57,10 +57,9 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
57
57
|
},
|
58
58
|
contextWindowTokens: 128_000,
|
59
59
|
description:
|
60
|
-
'command-r
|
61
|
-
displayName: 'Command R',
|
62
|
-
|
63
|
-
id: 'command-r',
|
60
|
+
'command-r 是一种遵循指令的会话模型,与以前的模型相比,它以更高的质量、更可靠的方式和更长的上下文执行语言任务。它可用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。',
|
61
|
+
displayName: 'Command R 2403',
|
62
|
+
id: 'command-r-03-2024',
|
64
63
|
maxOutput: 4000,
|
65
64
|
pricing: {
|
66
65
|
input: 0.15,
|
@@ -75,7 +74,8 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
75
74
|
contextWindowTokens: 128_000,
|
76
75
|
description:
|
77
76
|
'command-r-08-2024 是 Command R 模型的更新版本,于 2024 年 8 月发布。',
|
78
|
-
displayName: 'Command R
|
77
|
+
displayName: 'Command R 2408',
|
78
|
+
enabled: true,
|
79
79
|
id: 'command-r-08-2024',
|
80
80
|
maxOutput: 4000,
|
81
81
|
pricing: {
|
@@ -91,7 +91,7 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
91
91
|
contextWindowTokens: 128_000,
|
92
92
|
description:
|
93
93
|
'Command R 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它可用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。',
|
94
|
-
displayName: 'Command R
|
94
|
+
displayName: 'Command R 2403',
|
95
95
|
id: 'command-r-03-2024',
|
96
96
|
maxOutput: 4000,
|
97
97
|
pricing: {
|
@@ -107,8 +107,7 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
107
107
|
contextWindowTokens: 128_000,
|
108
108
|
description:
|
109
109
|
'command-r7b-12-2024 是一个小型且高效的更新版本,于 2024 年 12 月发布。它在 RAG、工具使用、代理等需要复杂推理和多步处理的任务中表现出色。',
|
110
|
-
displayName: 'Command R7B
|
111
|
-
enabled: true,
|
110
|
+
displayName: 'Command R7B 2412',
|
112
111
|
id: 'command-r7b-12-2024',
|
113
112
|
maxOutput: 4000,
|
114
113
|
pricing: {
|
@@ -122,7 +121,6 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
122
121
|
description:
|
123
122
|
'一个遵循指令的对话模型,在语言任务中表现出高质量、更可靠,并且相比我们的基础生成模型具有更长的上下文长度。',
|
124
123
|
displayName: 'Command',
|
125
|
-
enabled: true,
|
126
124
|
id: 'command',
|
127
125
|
maxOutput: 4000,
|
128
126
|
pricing: {
|
@@ -152,7 +150,6 @@ const cohereChatModels: AIChatModelCard[] = [
|
|
152
150
|
description:
|
153
151
|
'一个更小、更快的 Command 版本,几乎同样强大,但速度更快。',
|
154
152
|
displayName: 'Command Light',
|
155
|
-
enabled: true,
|
156
153
|
id: 'command-light',
|
157
154
|
maxOutput: 4000,
|
158
155
|
pricing: {
|
@@ -5,28 +5,137 @@ const githubChatModels: AIChatModelCard[] = [
|
|
5
5
|
abilities: {
|
6
6
|
functionCall: true,
|
7
7
|
reasoning: true,
|
8
|
+
vision: true,
|
8
9
|
},
|
9
10
|
contextWindowTokens: 200_000,
|
10
11
|
description:
|
11
|
-
'o3
|
12
|
-
displayName: '
|
12
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
13
|
+
displayName: 'o3',
|
14
|
+
id: 'o3',
|
15
|
+
maxOutput: 100_000,
|
16
|
+
pricing: {
|
17
|
+
cachedInput: 2.5,
|
18
|
+
input: 10,
|
19
|
+
output: 40,
|
20
|
+
},
|
21
|
+
releasedAt: '2025-04-17',
|
22
|
+
type: 'chat',
|
23
|
+
},
|
24
|
+
{
|
25
|
+
abilities: {
|
26
|
+
functionCall: true,
|
27
|
+
reasoning: true,
|
28
|
+
vision: true,
|
29
|
+
},
|
30
|
+
contextWindowTokens: 200_000,
|
31
|
+
description:
|
32
|
+
'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
33
|
+
displayName: 'o4-mini',
|
34
|
+
enabled: true,
|
35
|
+
id: 'o4-mini',
|
36
|
+
maxOutput: 100_000,
|
37
|
+
pricing: {
|
38
|
+
cachedInput: 0.275,
|
39
|
+
input: 1.1,
|
40
|
+
output: 4.4,
|
41
|
+
},
|
42
|
+
releasedAt: '2025-04-17',
|
43
|
+
type: 'chat',
|
44
|
+
},
|
45
|
+
{
|
46
|
+
abilities: {
|
47
|
+
functionCall: true,
|
48
|
+
vision: true,
|
49
|
+
},
|
50
|
+
contextWindowTokens: 1_047_576,
|
51
|
+
description:
|
52
|
+
'GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。',
|
53
|
+
displayName: 'GPT-4.1',
|
54
|
+
enabled: true,
|
55
|
+
id: 'gpt-4.1',
|
56
|
+
maxOutput: 32_768,
|
57
|
+
pricing: {
|
58
|
+
cachedInput: 0.5,
|
59
|
+
input: 2,
|
60
|
+
output: 8,
|
61
|
+
},
|
62
|
+
releasedAt: '2025-04-14',
|
63
|
+
type: 'chat',
|
64
|
+
},
|
65
|
+
{
|
66
|
+
abilities: {
|
67
|
+
functionCall: true,
|
68
|
+
vision: true,
|
69
|
+
},
|
70
|
+
contextWindowTokens: 1_047_576,
|
71
|
+
description:
|
72
|
+
'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
|
73
|
+
displayName: 'GPT-4.1 mini',
|
13
74
|
enabled: true,
|
75
|
+
id: 'gpt-4.1-mini',
|
76
|
+
maxOutput: 32_768,
|
77
|
+
pricing: {
|
78
|
+
cachedInput: 0.1,
|
79
|
+
input: 0.4,
|
80
|
+
output: 1.6,
|
81
|
+
},
|
82
|
+
releasedAt: '2025-04-14',
|
83
|
+
type: 'chat',
|
84
|
+
},
|
85
|
+
{
|
86
|
+
abilities: {
|
87
|
+
functionCall: true,
|
88
|
+
vision: true,
|
89
|
+
},
|
90
|
+
contextWindowTokens: 1_047_576,
|
91
|
+
description:
|
92
|
+
'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
|
93
|
+
displayName: 'GPT-4.1 nano',
|
94
|
+
id: 'gpt-4.1-nano',
|
95
|
+
maxOutput: 32_768,
|
96
|
+
pricing: {
|
97
|
+
cachedInput: 0.025,
|
98
|
+
input: 0.1,
|
99
|
+
output: 0.4,
|
100
|
+
},
|
101
|
+
releasedAt: '2025-04-14',
|
102
|
+
type: 'chat',
|
103
|
+
},
|
104
|
+
{
|
105
|
+
abilities: {
|
106
|
+
functionCall: true,
|
107
|
+
reasoning: true,
|
108
|
+
},
|
109
|
+
contextWindowTokens: 200_000,
|
110
|
+
description:
|
111
|
+
'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
112
|
+
displayName: 'o3-mini',
|
14
113
|
id: 'o3-mini',
|
15
114
|
maxOutput: 100_000,
|
115
|
+
pricing: {
|
116
|
+
cachedInput: 0.55,
|
117
|
+
input: 1.1,
|
118
|
+
output: 4.4,
|
119
|
+
},
|
16
120
|
releasedAt: '2025-01-31',
|
17
121
|
type: 'chat',
|
18
122
|
},
|
19
123
|
{
|
20
124
|
abilities: {
|
21
125
|
reasoning: true,
|
22
|
-
vision: true,
|
23
126
|
},
|
24
127
|
contextWindowTokens: 128_000,
|
25
|
-
description:
|
26
|
-
|
27
|
-
|
128
|
+
description:
|
129
|
+
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
130
|
+
displayName: 'o1-mini',
|
28
131
|
id: 'o1-mini',
|
29
132
|
maxOutput: 65_536,
|
133
|
+
pricing: {
|
134
|
+
cachedInput: 0.55,
|
135
|
+
input: 1.1,
|
136
|
+
output: 4.4,
|
137
|
+
},
|
138
|
+
releasedAt: '2024-09-12',
|
30
139
|
type: 'chat',
|
31
140
|
},
|
32
141
|
{
|
@@ -37,24 +146,32 @@ const githubChatModels: AIChatModelCard[] = [
|
|
37
146
|
contextWindowTokens: 200_000,
|
38
147
|
description:
|
39
148
|
'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
|
40
|
-
displayName: '
|
41
|
-
enabled: true,
|
149
|
+
displayName: 'o1',
|
42
150
|
id: 'o1',
|
43
151
|
maxOutput: 100_000,
|
152
|
+
pricing: {
|
153
|
+
cachedInput: 7.5,
|
154
|
+
input: 15,
|
155
|
+
output: 60,
|
156
|
+
},
|
157
|
+
releasedAt: '2024-12-17',
|
44
158
|
type: 'chat',
|
45
159
|
},
|
46
160
|
{
|
47
161
|
abilities: {
|
48
162
|
reasoning: true,
|
49
|
-
vision: true,
|
50
163
|
},
|
51
164
|
contextWindowTokens: 128_000,
|
52
165
|
description:
|
53
|
-
'
|
54
|
-
displayName: '
|
55
|
-
enabled: true,
|
166
|
+
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
167
|
+
displayName: 'o1-preview',
|
56
168
|
id: 'o1-preview',
|
57
169
|
maxOutput: 32_768,
|
170
|
+
pricing: {
|
171
|
+
input: 15,
|
172
|
+
output: 60,
|
173
|
+
},
|
174
|
+
releasedAt: '2024-09-12',
|
58
175
|
type: 'chat',
|
59
176
|
},
|
60
177
|
{
|
@@ -64,8 +181,7 @@ const githubChatModels: AIChatModelCard[] = [
|
|
64
181
|
},
|
65
182
|
contextWindowTokens: 134_144,
|
66
183
|
description: '一种经济高效的AI解决方案,适用于多种文本和图像任务。',
|
67
|
-
displayName: '
|
68
|
-
enabled: true,
|
184
|
+
displayName: 'GPT-4o mini',
|
69
185
|
id: 'gpt-4o-mini',
|
70
186
|
maxOutput: 4096,
|
71
187
|
type: 'chat',
|
@@ -77,8 +193,7 @@ const githubChatModels: AIChatModelCard[] = [
|
|
77
193
|
},
|
78
194
|
contextWindowTokens: 134_144,
|
79
195
|
description: 'OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。',
|
80
|
-
displayName: '
|
81
|
-
enabled: true,
|
196
|
+
displayName: 'GPT-4o',
|
82
197
|
id: 'gpt-4o',
|
83
198
|
maxOutput: 16_384,
|
84
199
|
type: 'chat',
|
@@ -4,6 +4,23 @@ import { AIChatModelCard } from '@/types/aiModel';
|
|
4
4
|
// https://console.groq.com/docs/models
|
5
5
|
|
6
6
|
const groqChatModels: AIChatModelCard[] = [
|
7
|
+
{
|
8
|
+
contextWindowTokens: 131_072,
|
9
|
+
description: 'Compound-beta 是一个复合 AI 系统,由 GroqCloud 中已经支持的多个开放可用的模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
|
10
|
+
displayName: 'Compound Beta',
|
11
|
+
enabled: true,
|
12
|
+
id: 'compound-beta',
|
13
|
+
maxOutput: 8192,
|
14
|
+
type: 'chat',
|
15
|
+
},
|
16
|
+
{
|
17
|
+
contextWindowTokens: 131_072,
|
18
|
+
description: 'Compound-beta-mini 是一个复合 AI 系统,由 GroqCloud 中已经支持的公开可用模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
|
19
|
+
displayName: 'Compound Beta Mini',
|
20
|
+
id: 'compound-beta-mini',
|
21
|
+
maxOutput: 8192,
|
22
|
+
type: 'chat',
|
23
|
+
},
|
7
24
|
{
|
8
25
|
contextWindowTokens: 131_072,
|
9
26
|
displayName: 'Llama 4 Scout (17Bx16E)',
|
@@ -68,21 +85,6 @@ const groqChatModels: AIChatModelCard[] = [
|
|
68
85
|
},
|
69
86
|
type: 'chat',
|
70
87
|
},
|
71
|
-
{
|
72
|
-
abilities: {
|
73
|
-
functionCall: true,
|
74
|
-
reasoning: true,
|
75
|
-
},
|
76
|
-
contextWindowTokens: 131_072,
|
77
|
-
displayName: 'DeepSeek R1 Distill Qwen 32B',
|
78
|
-
id: 'deepseek-r1-distill-qwen-32b',
|
79
|
-
maxOutput: 16_384,
|
80
|
-
pricing: {
|
81
|
-
input: 0.69,
|
82
|
-
output: 0.69,
|
83
|
-
},
|
84
|
-
type: 'chat',
|
85
|
-
},
|
86
88
|
{
|
87
89
|
abilities: {
|
88
90
|
functionCall: true,
|
@@ -112,69 +114,6 @@ const groqChatModels: AIChatModelCard[] = [
|
|
112
114
|
},
|
113
115
|
type: 'chat',
|
114
116
|
},
|
115
|
-
{
|
116
|
-
abilities: {
|
117
|
-
vision: true,
|
118
|
-
},
|
119
|
-
contextWindowTokens: 131_072,
|
120
|
-
description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
121
|
-
displayName: 'Llama 3.2 11B Vision (Preview)',
|
122
|
-
id: 'llama-3.2-11b-vision-preview',
|
123
|
-
maxOutput: 8192,
|
124
|
-
pricing: {
|
125
|
-
input: 0.18,
|
126
|
-
output: 0.18,
|
127
|
-
},
|
128
|
-
type: 'chat',
|
129
|
-
},
|
130
|
-
{
|
131
|
-
abilities: {
|
132
|
-
vision: true,
|
133
|
-
},
|
134
|
-
contextWindowTokens: 131_072,
|
135
|
-
description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
136
|
-
displayName: 'Llama 3.2 90B Vision (Preview)',
|
137
|
-
enabled: true,
|
138
|
-
id: 'llama-3.2-90b-vision-preview',
|
139
|
-
maxOutput: 8192,
|
140
|
-
pricing: {
|
141
|
-
input: 0.9,
|
142
|
-
output: 0.9,
|
143
|
-
},
|
144
|
-
type: 'chat',
|
145
|
-
},
|
146
|
-
{
|
147
|
-
contextWindowTokens: 131_072,
|
148
|
-
displayName: 'Llama 3.2 1B (Preview)',
|
149
|
-
id: 'llama-3.2-1b-preview',
|
150
|
-
maxOutput: 8192,
|
151
|
-
pricing: {
|
152
|
-
input: 0.04,
|
153
|
-
output: 0.04,
|
154
|
-
},
|
155
|
-
type: 'chat',
|
156
|
-
},
|
157
|
-
{
|
158
|
-
contextWindowTokens: 131_072,
|
159
|
-
displayName: 'Llama 3.2 3B (Preview)',
|
160
|
-
id: 'llama-3.2-3b-preview',
|
161
|
-
maxOutput: 8192,
|
162
|
-
pricing: {
|
163
|
-
input: 0.06,
|
164
|
-
output: 0.06,
|
165
|
-
},
|
166
|
-
type: 'chat',
|
167
|
-
},
|
168
|
-
{
|
169
|
-
contextWindowTokens: 8192,
|
170
|
-
displayName: 'Llama 3.3 70B SpecDec',
|
171
|
-
id: 'llama-3.3-70b-specdec',
|
172
|
-
pricing: {
|
173
|
-
input: 0.59,
|
174
|
-
output: 0.99,
|
175
|
-
},
|
176
|
-
type: 'chat',
|
177
|
-
},
|
178
117
|
{
|
179
118
|
abilities: {
|
180
119
|
functionCall: true,
|
@@ -236,29 +175,6 @@ const groqChatModels: AIChatModelCard[] = [
|
|
236
175
|
},
|
237
176
|
type: 'chat',
|
238
177
|
},
|
239
|
-
{
|
240
|
-
abilities: {
|
241
|
-
functionCall: true,
|
242
|
-
},
|
243
|
-
contextWindowTokens: 131_072,
|
244
|
-
displayName: 'Qwen 2.5 32B',
|
245
|
-
id: 'qwen-2.5-32b',
|
246
|
-
pricing: {
|
247
|
-
input: 0.79,
|
248
|
-
output: 0.79,
|
249
|
-
},
|
250
|
-
type: 'chat',
|
251
|
-
},
|
252
|
-
{
|
253
|
-
contextWindowTokens: 131_072,
|
254
|
-
displayName: 'Qwen 2.5 Coder 32B',
|
255
|
-
id: 'qwen-2.5-coder-32b',
|
256
|
-
pricing: {
|
257
|
-
input: 0.79,
|
258
|
-
output: 0.79,
|
259
|
-
},
|
260
|
-
type: 'chat',
|
261
|
-
},
|
262
178
|
{
|
263
179
|
contextWindowTokens: 8192,
|
264
180
|
displayName: 'Llama Guard 3 8B',
|
@@ -8,6 +8,48 @@ import {
|
|
8
8
|
} from '@/types/aiModel';
|
9
9
|
|
10
10
|
export const openaiChatModels: AIChatModelCard[] = [
|
11
|
+
{
|
12
|
+
abilities: {
|
13
|
+
functionCall: true,
|
14
|
+
reasoning: true,
|
15
|
+
vision: true,
|
16
|
+
},
|
17
|
+
contextWindowTokens: 200_000,
|
18
|
+
description:
|
19
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
20
|
+
displayName: 'o3',
|
21
|
+
enabled: true,
|
22
|
+
id: 'o3',
|
23
|
+
maxOutput: 100_000,
|
24
|
+
pricing: {
|
25
|
+
cachedInput: 2.5,
|
26
|
+
input: 10,
|
27
|
+
output: 40,
|
28
|
+
},
|
29
|
+
releasedAt: '2025-04-17',
|
30
|
+
type: 'chat',
|
31
|
+
},
|
32
|
+
{
|
33
|
+
abilities: {
|
34
|
+
functionCall: true,
|
35
|
+
reasoning: true,
|
36
|
+
vision: true,
|
37
|
+
},
|
38
|
+
contextWindowTokens: 200_000,
|
39
|
+
description:
|
40
|
+
'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
41
|
+
displayName: 'o4-mini',
|
42
|
+
enabled: true,
|
43
|
+
id: 'o4-mini',
|
44
|
+
maxOutput: 100_000,
|
45
|
+
pricing: {
|
46
|
+
cachedInput: 0.275,
|
47
|
+
input: 1.1,
|
48
|
+
output: 4.4,
|
49
|
+
},
|
50
|
+
releasedAt: '2025-04-17',
|
51
|
+
type: 'chat',
|
52
|
+
},
|
11
53
|
{
|
12
54
|
abilities: {
|
13
55
|
functionCall: true,
|
@@ -55,9 +97,8 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
55
97
|
},
|
56
98
|
contextWindowTokens: 1_047_576,
|
57
99
|
description:
|
58
|
-
'GPT-4.1
|
100
|
+
'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
|
59
101
|
displayName: 'GPT-4.1 nano',
|
60
|
-
enabled: true,
|
61
102
|
id: 'gpt-4.1-nano',
|
62
103
|
maxOutput: 32_768,
|
63
104
|
pricing: {
|
@@ -76,8 +117,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
76
117
|
contextWindowTokens: 200_000,
|
77
118
|
description:
|
78
119
|
'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
79
|
-
displayName: '
|
80
|
-
enabled: true,
|
120
|
+
displayName: 'o3-mini',
|
81
121
|
id: 'o3-mini',
|
82
122
|
maxOutput: 100_000,
|
83
123
|
pricing: {
|
@@ -95,7 +135,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
95
135
|
contextWindowTokens: 128_000,
|
96
136
|
description:
|
97
137
|
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
98
|
-
displayName: '
|
138
|
+
displayName: 'o1-mini',
|
99
139
|
id: 'o1-mini',
|
100
140
|
maxOutput: 65_536,
|
101
141
|
pricing: {
|
@@ -114,8 +154,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
114
154
|
contextWindowTokens: 200_000,
|
115
155
|
description:
|
116
156
|
'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
|
117
|
-
displayName: '
|
118
|
-
enabled: true,
|
157
|
+
displayName: 'o1',
|
119
158
|
id: 'o1',
|
120
159
|
maxOutput: 100_000,
|
121
160
|
pricing: {
|
@@ -133,7 +172,7 @@ export const openaiChatModels: AIChatModelCard[] = [
|
|
133
172
|
contextWindowTokens: 128_000,
|
134
173
|
description:
|
135
174
|
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
136
|
-
displayName: '
|
175
|
+
displayName: 'o1-preview',
|
137
176
|
id: 'o1-preview',
|
138
177
|
maxOutput: 32_768,
|
139
178
|
pricing: {
|
@@ -11,11 +11,168 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
11
11
|
type: 'chat',
|
12
12
|
},
|
13
13
|
{
|
14
|
+
abilities: {
|
15
|
+
functionCall: true,
|
16
|
+
reasoning: true,
|
17
|
+
vision: true,
|
18
|
+
},
|
19
|
+
contextWindowTokens: 200_000,
|
20
|
+
description:
|
21
|
+
'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
|
22
|
+
displayName: 'o3',
|
23
|
+
id: 'o3',
|
24
|
+
maxOutput: 100_000,
|
25
|
+
pricing: {
|
26
|
+
cachedInput: 2.5,
|
27
|
+
input: 10,
|
28
|
+
output: 40,
|
29
|
+
},
|
30
|
+
releasedAt: '2025-04-17',
|
31
|
+
type: 'chat',
|
32
|
+
},
|
33
|
+
{
|
34
|
+
abilities: {
|
35
|
+
functionCall: true,
|
36
|
+
reasoning: true,
|
37
|
+
vision: true,
|
38
|
+
},
|
39
|
+
contextWindowTokens: 200_000,
|
40
|
+
description:
|
41
|
+
'o4-mini 高推理等级版,专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
42
|
+
displayName: 'o4-mini (high)',
|
43
|
+
id: 'openai/o4-mini-high',
|
44
|
+
maxOutput: 100_000,
|
45
|
+
pricing: {
|
46
|
+
cachedInput: 0.275,
|
47
|
+
input: 1.1,
|
48
|
+
output: 4.4,
|
49
|
+
},
|
50
|
+
releasedAt: '2025-04-17',
|
51
|
+
type: 'chat',
|
52
|
+
},
|
53
|
+
{
|
54
|
+
abilities: {
|
55
|
+
functionCall: true,
|
56
|
+
reasoning: true,
|
57
|
+
vision: true,
|
58
|
+
},
|
59
|
+
contextWindowTokens: 200_000,
|
60
|
+
description:
|
61
|
+
'o4-mini 专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
|
62
|
+
displayName: 'o4-mini',
|
63
|
+
id: 'openai/o4-mini',
|
64
|
+
maxOutput: 100_000,
|
65
|
+
pricing: {
|
66
|
+
cachedInput: 0.275,
|
67
|
+
input: 1.1,
|
68
|
+
output: 4.4,
|
69
|
+
},
|
70
|
+
releasedAt: '2025-04-17',
|
71
|
+
type: 'chat',
|
72
|
+
},
|
73
|
+
{
|
74
|
+
abilities: {
|
75
|
+
functionCall: true,
|
76
|
+
vision: true,
|
77
|
+
},
|
78
|
+
contextWindowTokens: 1_047_576,
|
79
|
+
description:
|
80
|
+
'GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。',
|
81
|
+
displayName: 'GPT-4.1',
|
82
|
+
id: 'gpt-4.1',
|
83
|
+
maxOutput: 32_768,
|
84
|
+
pricing: {
|
85
|
+
cachedInput: 0.5,
|
86
|
+
input: 2,
|
87
|
+
output: 8,
|
88
|
+
},
|
89
|
+
releasedAt: '2025-04-14',
|
90
|
+
type: 'chat',
|
91
|
+
},
|
92
|
+
{
|
93
|
+
abilities: {
|
94
|
+
functionCall: true,
|
95
|
+
vision: true,
|
96
|
+
},
|
97
|
+
contextWindowTokens: 1_047_576,
|
98
|
+
description:
|
99
|
+
'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
|
100
|
+
displayName: 'GPT-4.1 mini',
|
101
|
+
id: 'gpt-4.1-mini',
|
102
|
+
maxOutput: 32_768,
|
103
|
+
pricing: {
|
104
|
+
cachedInput: 0.1,
|
105
|
+
input: 0.4,
|
106
|
+
output: 1.6,
|
107
|
+
},
|
108
|
+
releasedAt: '2025-04-14',
|
109
|
+
type: 'chat',
|
110
|
+
},
|
111
|
+
{
|
112
|
+
abilities: {
|
113
|
+
functionCall: true,
|
114
|
+
vision: true,
|
115
|
+
},
|
116
|
+
contextWindowTokens: 1_047_576,
|
117
|
+
description:
|
118
|
+
'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
|
119
|
+
displayName: 'GPT-4.1 nano',
|
120
|
+
id: 'gpt-4.1-nano',
|
121
|
+
maxOutput: 32_768,
|
122
|
+
pricing: {
|
123
|
+
cachedInput: 0.025,
|
124
|
+
input: 0.1,
|
125
|
+
output: 0.4,
|
126
|
+
},
|
127
|
+
releasedAt: '2025-04-14',
|
128
|
+
type: 'chat',
|
129
|
+
},
|
130
|
+
{
|
131
|
+
abilities: {
|
132
|
+
functionCall: true,
|
133
|
+
reasoning: true,
|
134
|
+
},
|
135
|
+
contextWindowTokens: 200_000,
|
136
|
+
description:
|
137
|
+
'o3-mini 高推理等级版,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
138
|
+
displayName: 'o3-mini (high)',
|
139
|
+
id: 'o3-mini-high',
|
140
|
+
maxOutput: 100_000,
|
141
|
+
pricing: {
|
142
|
+
cachedInput: 0.55,
|
143
|
+
input: 1.1,
|
144
|
+
output: 4.4,
|
145
|
+
},
|
146
|
+
releasedAt: '2025-01-31',
|
147
|
+
type: 'chat',
|
148
|
+
},
|
149
|
+
{
|
150
|
+
abilities: {
|
151
|
+
functionCall: true,
|
152
|
+
reasoning: true,
|
153
|
+
},
|
154
|
+
contextWindowTokens: 200_000,
|
155
|
+
description:
|
156
|
+
'o3-mini 在与 o1-mini 相同的成本和延迟目标下提供高智能。',
|
157
|
+
displayName: 'o3-mini',
|
158
|
+
id: 'o3-mini',
|
159
|
+
maxOutput: 100_000,
|
160
|
+
pricing: {
|
161
|
+
cachedInput: 0.55,
|
162
|
+
input: 1.1,
|
163
|
+
output: 4.4,
|
164
|
+
},
|
165
|
+
releasedAt: '2025-01-31',
|
166
|
+
type: 'chat',
|
167
|
+
},
|
168
|
+
{
|
169
|
+
abilities: {
|
170
|
+
reasoning: true,
|
171
|
+
},
|
14
172
|
contextWindowTokens: 128_000,
|
15
173
|
description:
|
16
174
|
'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
|
17
|
-
displayName: '
|
18
|
-
enabled: true,
|
175
|
+
displayName: 'o1-mini',
|
19
176
|
id: 'openai/o1-mini',
|
20
177
|
maxOutput: 65_536,
|
21
178
|
pricing: {
|
@@ -26,11 +183,13 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
26
183
|
type: 'chat',
|
27
184
|
},
|
28
185
|
{
|
186
|
+
abilities: {
|
187
|
+
reasoning: true,
|
188
|
+
},
|
29
189
|
contextWindowTokens: 128_000,
|
30
190
|
description:
|
31
191
|
'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
|
32
|
-
displayName: '
|
33
|
-
enabled: true,
|
192
|
+
displayName: 'o1-preview',
|
34
193
|
id: 'openai/o1-preview',
|
35
194
|
maxOutput: 32_768,
|
36
195
|
pricing: {
|
@@ -49,7 +208,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
49
208
|
description:
|
50
209
|
'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
|
51
210
|
displayName: 'GPT-4o mini',
|
52
|
-
enabled: true,
|
53
211
|
id: 'openai/gpt-4o-mini',
|
54
212
|
maxOutput: 16_385,
|
55
213
|
pricing: {
|
@@ -67,7 +225,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
67
225
|
description:
|
68
226
|
'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
|
69
227
|
displayName: 'GPT-4o',
|
70
|
-
enabled: true,
|
71
228
|
id: 'openai/gpt-4o',
|
72
229
|
pricing: {
|
73
230
|
input: 2.5,
|
@@ -84,7 +241,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
84
241
|
description:
|
85
242
|
'Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。',
|
86
243
|
displayName: 'Claude 3 Haiku',
|
87
|
-
enabled: true,
|
88
244
|
id: 'anthropic/claude-3-haiku',
|
89
245
|
maxOutput: 4096,
|
90
246
|
pricing: {
|
@@ -104,7 +260,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
104
260
|
description:
|
105
261
|
'Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。',
|
106
262
|
displayName: 'Claude 3.5 Haiku',
|
107
|
-
enabled: true,
|
108
263
|
id: 'anthropic/claude-3.5-haiku',
|
109
264
|
maxOutput: 8192,
|
110
265
|
pricing: {
|
@@ -125,7 +280,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
125
280
|
description:
|
126
281
|
'Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
|
127
282
|
displayName: 'Claude 3.5 Sonnet',
|
128
|
-
enabled: true,
|
129
283
|
id: 'anthropic/claude-3.5-sonnet',
|
130
284
|
maxOutput: 8192,
|
131
285
|
pricing: {
|
@@ -147,7 +301,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
147
301
|
description:
|
148
302
|
'Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型,也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
|
149
303
|
displayName: 'Claude 3.7 Sonnet',
|
150
|
-
enabled: true,
|
151
304
|
id: 'anthropic/claude-3.7-sonnet',
|
152
305
|
maxOutput: 8192,
|
153
306
|
pricing: {
|
@@ -171,7 +324,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
171
324
|
description:
|
172
325
|
'Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。',
|
173
326
|
displayName: 'Claude 3 Opus',
|
174
|
-
enabled: true,
|
175
327
|
id: 'anthropic/claude-3-opus',
|
176
328
|
maxOutput: 4096,
|
177
329
|
pricing: {
|
@@ -191,7 +343,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
191
343
|
contextWindowTokens: 1_008_192,
|
192
344
|
description: 'Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。',
|
193
345
|
displayName: 'Gemini 1.5 Flash',
|
194
|
-
enabled: true,
|
195
346
|
id: 'google/gemini-flash-1.5',
|
196
347
|
maxOutput: 8192,
|
197
348
|
pricing: {
|
@@ -209,7 +360,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
209
360
|
description:
|
210
361
|
'Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。',
|
211
362
|
displayName: 'Gemini 2.0 Flash',
|
212
|
-
enabled: true,
|
213
363
|
id: 'google/gemini-2.0-flash-001',
|
214
364
|
maxOutput: 8192,
|
215
365
|
pricing: {
|
@@ -228,7 +378,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
228
378
|
contextWindowTokens: 2_008_192,
|
229
379
|
description: 'Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。',
|
230
380
|
displayName: 'Gemini 1.5 Pro',
|
231
|
-
enabled: true,
|
232
381
|
id: 'google/gemini-pro-1.5',
|
233
382
|
maxOutput: 8192,
|
234
383
|
pricing: {
|
@@ -245,7 +394,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
245
394
|
description:
|
246
395
|
'融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。',
|
247
396
|
displayName: 'DeepSeek V2.5',
|
248
|
-
enabled: true,
|
249
397
|
id: 'deepseek/deepseek-chat',
|
250
398
|
pricing: {
|
251
399
|
input: 0.14,
|
@@ -262,7 +410,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
262
410
|
description:
|
263
411
|
'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
|
264
412
|
displayName: 'DeepSeek R1',
|
265
|
-
enabled: true,
|
266
413
|
id: 'deepseek/deepseek-r1',
|
267
414
|
pricing: {
|
268
415
|
input: 3,
|
@@ -279,7 +426,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
279
426
|
description:
|
280
427
|
'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
|
281
428
|
displayName: 'DeepSeek R1 (Free)',
|
282
|
-
enabled: true,
|
283
429
|
id: 'deepseek/deepseek-r1:free',
|
284
430
|
releasedAt: '2025-01-20',
|
285
431
|
type: 'chat',
|
@@ -292,7 +438,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
292
438
|
description:
|
293
439
|
'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
294
440
|
displayName: 'Llama 3.2 11B Vision',
|
295
|
-
enabled: true,
|
296
441
|
id: 'meta-llama/llama-3.2-11b-vision-instruct',
|
297
442
|
pricing: {
|
298
443
|
input: 0.162,
|
@@ -308,7 +453,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
308
453
|
description:
|
309
454
|
'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
|
310
455
|
displayName: 'Llama 3.2 90B Vision',
|
311
|
-
enabled: true,
|
312
456
|
id: 'meta-llama/llama-3.2-90b-vision-instruct',
|
313
457
|
pricing: {
|
314
458
|
input: 0.4,
|
@@ -324,7 +468,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
324
468
|
description:
|
325
469
|
'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
|
326
470
|
displayName: 'Llama 3.3 70B Instruct',
|
327
|
-
enabled: true,
|
328
471
|
id: 'meta-llama/llama-3.3-70b-instruct',
|
329
472
|
pricing: {
|
330
473
|
input: 0.12,
|
@@ -340,7 +483,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
340
483
|
description:
|
341
484
|
'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
|
342
485
|
displayName: 'Llama 3.3 70B Instruct (Free)',
|
343
|
-
enabled: true,
|
344
486
|
id: 'meta-llama/llama-3.3-70b-instruct:free',
|
345
487
|
type: 'chat',
|
346
488
|
},
|
@@ -348,7 +490,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
348
490
|
contextWindowTokens: 32_768,
|
349
491
|
description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
|
350
492
|
displayName: 'Qwen2 7B (Free)',
|
351
|
-
enabled: true,
|
352
493
|
id: 'qwen/qwen-2-7b-instruct:free',
|
353
494
|
type: 'chat',
|
354
495
|
},
|
@@ -356,7 +497,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
356
497
|
contextWindowTokens: 32_768,
|
357
498
|
description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
|
358
499
|
displayName: 'Llama 3.1 8B (Free)',
|
359
|
-
enabled: true,
|
360
500
|
id: 'meta-llama/llama-3.1-8b-instruct:free',
|
361
501
|
type: 'chat',
|
362
502
|
},
|
@@ -364,7 +504,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
364
504
|
contextWindowTokens: 8192,
|
365
505
|
description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
|
366
506
|
displayName: 'Gemma 2 9B (Free)',
|
367
|
-
enabled: true,
|
368
507
|
id: 'google/gemma-2-9b-it:free',
|
369
508
|
type: 'chat',
|
370
509
|
},
|
@@ -377,7 +516,6 @@ const openrouterChatModels: AIChatModelCard[] = [
|
|
377
516
|
description:
|
378
517
|
'Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。',
|
379
518
|
displayName: 'Gemini 2.0 Pro Experimental 02-05 (Free)',
|
380
|
-
enabled: true,
|
381
519
|
id: 'google/gemini-2.0-pro-exp-02-05:free',
|
382
520
|
maxOutput: 8192,
|
383
521
|
releasedAt: '2025-02-05',
|
@@ -4,6 +4,51 @@ import { AIChatModelCard } from '@/types/aiModel';
|
|
4
4
|
// pricing https://console.volcengine.com/ark/region:ark+cn-beijing/openManagement
|
5
5
|
|
6
6
|
const doubaoChatModels: AIChatModelCard[] = [
|
7
|
+
{
|
8
|
+
abilities: {
|
9
|
+
functionCall: true,
|
10
|
+
reasoning: true,
|
11
|
+
},
|
12
|
+
config: {
|
13
|
+
deploymentName: 'doubao-1-5-thinking-pro-250415',
|
14
|
+
},
|
15
|
+
contextWindowTokens: 128_000,
|
16
|
+
description:
|
17
|
+
'Doubao-1.5全新深度思考模型,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。',
|
18
|
+
displayName: 'Doubao 1.5 Thinking Pro',
|
19
|
+
enabled: true,
|
20
|
+
id: 'Doubao-1.5-thinking-pro',
|
21
|
+
maxOutput: 16_000,
|
22
|
+
pricing: {
|
23
|
+
currency: 'CNY',
|
24
|
+
input: 4,
|
25
|
+
output: 16,
|
26
|
+
},
|
27
|
+
type: 'chat',
|
28
|
+
},
|
29
|
+
{
|
30
|
+
abilities: {
|
31
|
+
functionCall: true,
|
32
|
+
reasoning: true,
|
33
|
+
vision: true,
|
34
|
+
},
|
35
|
+
config: {
|
36
|
+
deploymentName: 'doubao-1-5-thinking-pro-vision-250415',
|
37
|
+
},
|
38
|
+
contextWindowTokens: 128_000,
|
39
|
+
description:
|
40
|
+
'Doubao-1.5全新深度思考模型,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。',
|
41
|
+
displayName: 'Doubao 1.5 Thinking Pro Vision',
|
42
|
+
enabled: true,
|
43
|
+
id: 'Doubao-1.5-thinking-pro-vision',
|
44
|
+
maxOutput: 16_000,
|
45
|
+
pricing: {
|
46
|
+
currency: 'CNY',
|
47
|
+
input: 4,
|
48
|
+
output: 16,
|
49
|
+
},
|
50
|
+
type: 'chat',
|
51
|
+
},
|
7
52
|
{
|
8
53
|
abilities: {
|
9
54
|
functionCall: true,
|
@@ -113,7 +158,7 @@ const doubaoChatModels: AIChatModelCard[] = [
|
|
113
158
|
config: {
|
114
159
|
deploymentName: 'doubao-1-5-pro-256k-250115',
|
115
160
|
},
|
116
|
-
contextWindowTokens:
|
161
|
+
contextWindowTokens: 256_000,
|
117
162
|
description:
|
118
163
|
'Doubao-1.5-pro-256k 基于 Doubao-1.5-Pro 全面升级版,整体效果大幅提升 10%。支持 256k 上下文窗口的推理,输出长度支持最大 12k tokens。更高性能、更大窗口、超高性价比,适用于更广泛的应用场景。',
|
119
164
|
displayName: 'Doubao 1.5 Pro 256k',
|
@@ -159,7 +204,6 @@ const doubaoChatModels: AIChatModelCard[] = [
|
|
159
204
|
description:
|
160
205
|
'Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。',
|
161
206
|
displayName: 'Doubao 1.5 Vision Pro 32k',
|
162
|
-
enabled: true,
|
163
207
|
id: 'Doubao-1.5-vision-pro-32k',
|
164
208
|
maxOutput: 12_288,
|
165
209
|
pricing: {
|
@@ -170,6 +214,50 @@ const doubaoChatModels: AIChatModelCard[] = [
|
|
170
214
|
releasedAt: '2025-01-15',
|
171
215
|
type: 'chat',
|
172
216
|
},
|
217
|
+
{
|
218
|
+
abilities: {
|
219
|
+
functionCall: true,
|
220
|
+
vision: true,
|
221
|
+
},
|
222
|
+
config: {
|
223
|
+
deploymentName: 'doubao-1-5-vision-pro-250328',
|
224
|
+
},
|
225
|
+
contextWindowTokens: 128_000,
|
226
|
+
description:
|
227
|
+
'Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。',
|
228
|
+
displayName: 'Doubao 1.5 Vision Pro',
|
229
|
+
id: 'Doubao-1.5-vision-pro',
|
230
|
+
maxOutput: 16_384,
|
231
|
+
pricing: {
|
232
|
+
currency: 'CNY',
|
233
|
+
input: 3,
|
234
|
+
output: 9,
|
235
|
+
},
|
236
|
+
releasedAt: '2025-03-28',
|
237
|
+
type: 'chat',
|
238
|
+
},
|
239
|
+
{
|
240
|
+
abilities: {
|
241
|
+
functionCall: true,
|
242
|
+
vision: true,
|
243
|
+
},
|
244
|
+
config: {
|
245
|
+
deploymentName: 'doubao-1-5-vision-lite-250315',
|
246
|
+
},
|
247
|
+
contextWindowTokens: 128_000,
|
248
|
+
description:
|
249
|
+
'Doubao-1.5-vision-lite 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。支持 128k 上下文窗口,输出长度支持最大 16k tokens。',
|
250
|
+
displayName: 'Doubao 1.5 Vision Lite',
|
251
|
+
id: 'doubao-1.5-vision-lite',
|
252
|
+
maxOutput: 16_384,
|
253
|
+
pricing: {
|
254
|
+
currency: 'CNY',
|
255
|
+
input: 1.5,
|
256
|
+
output: 4.5,
|
257
|
+
},
|
258
|
+
releasedAt: '2025-03-15',
|
259
|
+
type: 'chat',
|
260
|
+
},
|
173
261
|
{
|
174
262
|
abilities: {
|
175
263
|
vision: true,
|