@lobehub/chat 1.80.3 → 1.80.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.80.4](https://github.com/lobehub/lobe-chat/compare/v1.80.3...v1.80.4)
6
+
7
+ <sup>Released on **2025-04-17**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Add o3/o4-mini models.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Add o3/o4-mini models, closes [#7448](https://github.com/lobehub/lobe-chat/issues/7448) ([3fdba72](https://github.com/lobehub/lobe-chat/commit/3fdba72))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.80.3](https://github.com/lobehub/lobe-chat/compare/v1.80.2...v1.80.3)
6
31
 
7
32
  <sup>Released on **2025-04-16**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Add o3/o4-mini models."
6
+ ]
7
+ },
8
+ "date": "2025-04-17",
9
+ "version": "1.80.4"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "improvements": [
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.80.3",
3
+ "version": "1.80.4",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -1,6 +1,54 @@
1
1
  import { AIChatModelCard } from '@/types/aiModel';
2
2
 
3
3
  const azureChatModels: AIChatModelCard[] = [
4
+ {
5
+ abilities: {
6
+ functionCall: true,
7
+ reasoning: true,
8
+ vision: true,
9
+ },
10
+ config: {
11
+ deploymentName: 'o3',
12
+ },
13
+ contextWindowTokens: 200_000,
14
+ description:
15
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
16
+ displayName: 'o3',
17
+ enabled: true,
18
+ id: 'o3',
19
+ maxOutput: 100_000,
20
+ pricing: {
21
+ cachedInput: 2.5,
22
+ input: 10,
23
+ output: 40,
24
+ },
25
+ releasedAt: '2025-04-17',
26
+ type: 'chat',
27
+ },
28
+ {
29
+ abilities: {
30
+ functionCall: true,
31
+ reasoning: true,
32
+ vision: true,
33
+ },
34
+ config: {
35
+ deploymentName: 'o4-mini',
36
+ },
37
+ contextWindowTokens: 200_000,
38
+ description:
39
+ 'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
40
+ displayName: 'o4-mini',
41
+ enabled: true,
42
+ id: 'o4-mini',
43
+ maxOutput: 100_000,
44
+ pricing: {
45
+ cachedInput: 0.275,
46
+ input: 1.1,
47
+ output: 4.4,
48
+ },
49
+ releasedAt: '2025-04-17',
50
+ type: 'chat',
51
+ },
4
52
  {
5
53
  abilities: {
6
54
  functionCall: true,
@@ -59,7 +107,6 @@ const azureChatModels: AIChatModelCard[] = [
59
107
  description:
60
108
  'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
61
109
  displayName: 'GPT-4.1 nano',
62
- enabled: true,
63
110
  id: 'gpt-4.1-nano',
64
111
  maxOutput: 32_768,
65
112
  pricing: {
@@ -81,7 +128,7 @@ const azureChatModels: AIChatModelCard[] = [
81
128
  contextWindowTokens: 200_000,
82
129
  description:
83
130
  'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
84
- displayName: 'OpenAI o3-mini',
131
+ displayName: 'o3-mini',
85
132
  id: 'o3-mini',
86
133
  maxOutput: 100_000,
87
134
  pricing: {
@@ -102,8 +149,7 @@ const azureChatModels: AIChatModelCard[] = [
102
149
  contextWindowTokens: 128_000,
103
150
  description:
104
151
  'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
105
- displayName: 'OpenAI o1-mini',
106
- enabled: true,
152
+ displayName: 'o1-mini',
107
153
  id: 'o1-mini',
108
154
  maxOutput: 65_536,
109
155
  pricing: {
@@ -124,8 +170,7 @@ const azureChatModels: AIChatModelCard[] = [
124
170
  contextWindowTokens: 200_000,
125
171
  description:
126
172
  'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
127
- displayName: 'OpenAI o1',
128
- enabled: true,
173
+ displayName: 'o1',
129
174
  id: 'o1',
130
175
  maxOutput: 100_000,
131
176
  pricing: {
@@ -146,7 +191,7 @@ const azureChatModels: AIChatModelCard[] = [
146
191
  contextWindowTokens: 128_000,
147
192
  description:
148
193
  'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
149
- displayName: 'OpenAI o1-preview',
194
+ displayName: 'o1-preview',
150
195
  id: 'o1-preview',
151
196
  maxOutput: 32_768,
152
197
  pricing: {
@@ -205,7 +250,6 @@ const azureChatModels: AIChatModelCard[] = [
205
250
  contextWindowTokens: 128_000,
206
251
  description: 'GPT-4o Mini,小型高效模型,具备与GPT-4o相似的卓越性能。',
207
252
  displayName: 'GPT 4o Mini',
208
- enabled: true,
209
253
  id: 'gpt-4o-mini',
210
254
  maxOutput: 4096,
211
255
  pricing: {
@@ -27,6 +27,46 @@ const azureChatModels: AIChatModelCard[] = [
27
27
  },
28
28
  type: 'chat',
29
29
  },
30
+ {
31
+ abilities: {
32
+ functionCall: true,
33
+ reasoning: true,
34
+ vision: true,
35
+ },
36
+ contextWindowTokens: 200_000,
37
+ description:
38
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
39
+ displayName: 'o3',
40
+ id: 'o3',
41
+ maxOutput: 100_000,
42
+ pricing: {
43
+ cachedInput: 2.5,
44
+ input: 10,
45
+ output: 40,
46
+ },
47
+ releasedAt: '2025-04-17',
48
+ type: 'chat',
49
+ },
50
+ {
51
+ abilities: {
52
+ functionCall: true,
53
+ reasoning: true,
54
+ vision: true,
55
+ },
56
+ contextWindowTokens: 200_000,
57
+ description:
58
+ 'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
59
+ displayName: 'o4-mini',
60
+ id: 'o4-mini',
61
+ maxOutput: 100_000,
62
+ pricing: {
63
+ cachedInput: 0.275,
64
+ input: 1.1,
65
+ output: 4.4,
66
+ },
67
+ releasedAt: '2025-04-17',
68
+ type: 'chat',
69
+ },
30
70
  {
31
71
  abilities: {
32
72
  functionCall: true,
@@ -76,7 +116,6 @@ const azureChatModels: AIChatModelCard[] = [
76
116
  description:
77
117
  'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
78
118
  displayName: 'GPT-4.1 nano',
79
- enabled: true,
80
119
  id: 'gpt-4.1-nano',
81
120
  maxOutput: 32_768,
82
121
  pricing: {
@@ -8,7 +8,7 @@ const cohereChatModels: AIChatModelCard[] = [
8
8
  contextWindowTokens: 256_000,
9
9
  description:
10
10
  'Command A 是我们迄今为止性能最强的模型,在工具使用、代理、检索增强生成(RAG)和多语言应用场景方面表现出色。Command A 具有 256K 的上下文长度,仅需两块 GPU 即可运行,并且相比于 Command R+ 08-2024,吞吐量提高了 150%。',
11
- displayName: 'Command A 03-2025',
11
+ displayName: 'Command A 2503',
12
12
  enabled: true,
13
13
  id: 'command-a-03-2025',
14
14
  maxOutput: 8000,
@@ -25,13 +25,12 @@ const cohereChatModels: AIChatModelCard[] = [
25
25
  contextWindowTokens: 128_000,
26
26
  description:
27
27
  'command-r-plus 是 command-r-plus-04-2024 的别名,因此如果您在 API 中使用 command-r-plus,实际上指向的就是该模型。',
28
- displayName: 'Command R+',
29
- enabled: true,
30
- id: 'command-r-plus',
28
+ displayName: 'Command R+ 2404',
29
+ id: 'command-r-plus-04-2024',
31
30
  maxOutput: 4000,
32
31
  pricing: {
33
- input: 2.5,
34
- output: 10
32
+ input: 3,
33
+ output: 15
35
34
  },
36
35
  type: 'chat'
37
36
  },
@@ -42,12 +41,13 @@ const cohereChatModels: AIChatModelCard[] = [
42
41
  contextWindowTokens: 128_000,
43
42
  description:
44
43
  'Command R+ 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它最适用于复杂的 RAG 工作流和多步工具使用。',
45
- displayName: 'Command R+ 04-2024',
46
- id: 'command-r-plus-04-2024',
44
+ displayName: 'Command R+ 2408',
45
+ enabled: true,
46
+ id: 'command-r-plus-08-2024',
47
47
  maxOutput: 4000,
48
48
  pricing: {
49
- input: 3,
50
- output: 15
49
+ input: 2.5,
50
+ output: 10
51
51
  },
52
52
  type: 'chat'
53
53
  },
@@ -57,10 +57,9 @@ const cohereChatModels: AIChatModelCard[] = [
57
57
  },
58
58
  contextWindowTokens: 128_000,
59
59
  description:
60
- 'command-r 是 command-c-03-2024 的别名,因此如果您在 API 中使用 command-r,实际上指向的就是该模型。',
61
- displayName: 'Command R',
62
- enabled: true,
63
- id: 'command-r',
60
+ 'command-r 是一种遵循指令的会话模型,与以前的模型相比,它以更高的质量、更可靠的方式和更长的上下文执行语言任务。它可用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。',
61
+ displayName: 'Command R 2403',
62
+ id: 'command-r-03-2024',
64
63
  maxOutput: 4000,
65
64
  pricing: {
66
65
  input: 0.15,
@@ -75,7 +74,8 @@ const cohereChatModels: AIChatModelCard[] = [
75
74
  contextWindowTokens: 128_000,
76
75
  description:
77
76
  'command-r-08-2024 是 Command R 模型的更新版本,于 2024 年 8 月发布。',
78
- displayName: 'Command R 08-2024',
77
+ displayName: 'Command R 2408',
78
+ enabled: true,
79
79
  id: 'command-r-08-2024',
80
80
  maxOutput: 4000,
81
81
  pricing: {
@@ -91,7 +91,7 @@ const cohereChatModels: AIChatModelCard[] = [
91
91
  contextWindowTokens: 128_000,
92
92
  description:
93
93
  'Command R 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它可用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。',
94
- displayName: 'Command R 03-2024',
94
+ displayName: 'Command R 2403',
95
95
  id: 'command-r-03-2024',
96
96
  maxOutput: 4000,
97
97
  pricing: {
@@ -107,8 +107,7 @@ const cohereChatModels: AIChatModelCard[] = [
107
107
  contextWindowTokens: 128_000,
108
108
  description:
109
109
  'command-r7b-12-2024 是一个小型且高效的更新版本,于 2024 年 12 月发布。它在 RAG、工具使用、代理等需要复杂推理和多步处理的任务中表现出色。',
110
- displayName: 'Command R7B 12-2024',
111
- enabled: true,
110
+ displayName: 'Command R7B 2412',
112
111
  id: 'command-r7b-12-2024',
113
112
  maxOutput: 4000,
114
113
  pricing: {
@@ -122,7 +121,6 @@ const cohereChatModels: AIChatModelCard[] = [
122
121
  description:
123
122
  '一个遵循指令的对话模型,在语言任务中表现出高质量、更可靠,并且相比我们的基础生成模型具有更长的上下文长度。',
124
123
  displayName: 'Command',
125
- enabled: true,
126
124
  id: 'command',
127
125
  maxOutput: 4000,
128
126
  pricing: {
@@ -152,7 +150,6 @@ const cohereChatModels: AIChatModelCard[] = [
152
150
  description:
153
151
  '一个更小、更快的 Command 版本,几乎同样强大,但速度更快。',
154
152
  displayName: 'Command Light',
155
- enabled: true,
156
153
  id: 'command-light',
157
154
  maxOutput: 4000,
158
155
  pricing: {
@@ -5,28 +5,137 @@ const githubChatModels: AIChatModelCard[] = [
5
5
  abilities: {
6
6
  functionCall: true,
7
7
  reasoning: true,
8
+ vision: true,
8
9
  },
9
10
  contextWindowTokens: 200_000,
10
11
  description:
11
- 'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
12
- displayName: 'OpenAI o3-mini',
12
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
13
+ displayName: 'o3',
14
+ id: 'o3',
15
+ maxOutput: 100_000,
16
+ pricing: {
17
+ cachedInput: 2.5,
18
+ input: 10,
19
+ output: 40,
20
+ },
21
+ releasedAt: '2025-04-17',
22
+ type: 'chat',
23
+ },
24
+ {
25
+ abilities: {
26
+ functionCall: true,
27
+ reasoning: true,
28
+ vision: true,
29
+ },
30
+ contextWindowTokens: 200_000,
31
+ description:
32
+ 'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
33
+ displayName: 'o4-mini',
34
+ enabled: true,
35
+ id: 'o4-mini',
36
+ maxOutput: 100_000,
37
+ pricing: {
38
+ cachedInput: 0.275,
39
+ input: 1.1,
40
+ output: 4.4,
41
+ },
42
+ releasedAt: '2025-04-17',
43
+ type: 'chat',
44
+ },
45
+ {
46
+ abilities: {
47
+ functionCall: true,
48
+ vision: true,
49
+ },
50
+ contextWindowTokens: 1_047_576,
51
+ description:
52
+ 'GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。',
53
+ displayName: 'GPT-4.1',
54
+ enabled: true,
55
+ id: 'gpt-4.1',
56
+ maxOutput: 32_768,
57
+ pricing: {
58
+ cachedInput: 0.5,
59
+ input: 2,
60
+ output: 8,
61
+ },
62
+ releasedAt: '2025-04-14',
63
+ type: 'chat',
64
+ },
65
+ {
66
+ abilities: {
67
+ functionCall: true,
68
+ vision: true,
69
+ },
70
+ contextWindowTokens: 1_047_576,
71
+ description:
72
+ 'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
73
+ displayName: 'GPT-4.1 mini',
13
74
  enabled: true,
75
+ id: 'gpt-4.1-mini',
76
+ maxOutput: 32_768,
77
+ pricing: {
78
+ cachedInput: 0.1,
79
+ input: 0.4,
80
+ output: 1.6,
81
+ },
82
+ releasedAt: '2025-04-14',
83
+ type: 'chat',
84
+ },
85
+ {
86
+ abilities: {
87
+ functionCall: true,
88
+ vision: true,
89
+ },
90
+ contextWindowTokens: 1_047_576,
91
+ description:
92
+ 'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
93
+ displayName: 'GPT-4.1 nano',
94
+ id: 'gpt-4.1-nano',
95
+ maxOutput: 32_768,
96
+ pricing: {
97
+ cachedInput: 0.025,
98
+ input: 0.1,
99
+ output: 0.4,
100
+ },
101
+ releasedAt: '2025-04-14',
102
+ type: 'chat',
103
+ },
104
+ {
105
+ abilities: {
106
+ functionCall: true,
107
+ reasoning: true,
108
+ },
109
+ contextWindowTokens: 200_000,
110
+ description:
111
+ 'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
112
+ displayName: 'o3-mini',
14
113
  id: 'o3-mini',
15
114
  maxOutput: 100_000,
115
+ pricing: {
116
+ cachedInput: 0.55,
117
+ input: 1.1,
118
+ output: 4.4,
119
+ },
16
120
  releasedAt: '2025-01-31',
17
121
  type: 'chat',
18
122
  },
19
123
  {
20
124
  abilities: {
21
125
  reasoning: true,
22
- vision: true,
23
126
  },
24
127
  contextWindowTokens: 128_000,
25
- description: '比 o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。',
26
- displayName: 'OpenAI o1-mini',
27
- enabled: true,
128
+ description:
129
+ 'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
130
+ displayName: 'o1-mini',
28
131
  id: 'o1-mini',
29
132
  maxOutput: 65_536,
133
+ pricing: {
134
+ cachedInput: 0.55,
135
+ input: 1.1,
136
+ output: 4.4,
137
+ },
138
+ releasedAt: '2024-09-12',
30
139
  type: 'chat',
31
140
  },
32
141
  {
@@ -37,24 +146,32 @@ const githubChatModels: AIChatModelCard[] = [
37
146
  contextWindowTokens: 200_000,
38
147
  description:
39
148
  'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
40
- displayName: 'OpenAI o1',
41
- enabled: true,
149
+ displayName: 'o1',
42
150
  id: 'o1',
43
151
  maxOutput: 100_000,
152
+ pricing: {
153
+ cachedInput: 7.5,
154
+ input: 15,
155
+ output: 60,
156
+ },
157
+ releasedAt: '2024-12-17',
44
158
  type: 'chat',
45
159
  },
46
160
  {
47
161
  abilities: {
48
162
  reasoning: true,
49
- vision: true,
50
163
  },
51
164
  contextWindowTokens: 128_000,
52
165
  description:
53
- '专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。',
54
- displayName: 'OpenAI o1-preview',
55
- enabled: true,
166
+ 'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
167
+ displayName: 'o1-preview',
56
168
  id: 'o1-preview',
57
169
  maxOutput: 32_768,
170
+ pricing: {
171
+ input: 15,
172
+ output: 60,
173
+ },
174
+ releasedAt: '2024-09-12',
58
175
  type: 'chat',
59
176
  },
60
177
  {
@@ -64,8 +181,7 @@ const githubChatModels: AIChatModelCard[] = [
64
181
  },
65
182
  contextWindowTokens: 134_144,
66
183
  description: '一种经济高效的AI解决方案,适用于多种文本和图像任务。',
67
- displayName: 'OpenAI GPT-4o mini',
68
- enabled: true,
184
+ displayName: 'GPT-4o mini',
69
185
  id: 'gpt-4o-mini',
70
186
  maxOutput: 4096,
71
187
  type: 'chat',
@@ -77,8 +193,7 @@ const githubChatModels: AIChatModelCard[] = [
77
193
  },
78
194
  contextWindowTokens: 134_144,
79
195
  description: 'OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。',
80
- displayName: 'OpenAI GPT-4o',
81
- enabled: true,
196
+ displayName: 'GPT-4o',
82
197
  id: 'gpt-4o',
83
198
  maxOutput: 16_384,
84
199
  type: 'chat',
@@ -4,6 +4,23 @@ import { AIChatModelCard } from '@/types/aiModel';
4
4
  // https://console.groq.com/docs/models
5
5
 
6
6
  const groqChatModels: AIChatModelCard[] = [
7
+ {
8
+ contextWindowTokens: 131_072,
9
+ description: 'Compound-beta 是一个复合 AI 系统,由 GroqCloud 中已经支持的多个开放可用的模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
10
+ displayName: 'Compound Beta',
11
+ enabled: true,
12
+ id: 'compound-beta',
13
+ maxOutput: 8192,
14
+ type: 'chat',
15
+ },
16
+ {
17
+ contextWindowTokens: 131_072,
18
+ description: 'Compound-beta-mini 是一个复合 AI 系统,由 GroqCloud 中已经支持的公开可用模型提供支持,可以智能地、有选择地使用工具来回答用户查询。',
19
+ displayName: 'Compound Beta Mini',
20
+ id: 'compound-beta-mini',
21
+ maxOutput: 8192,
22
+ type: 'chat',
23
+ },
7
24
  {
8
25
  contextWindowTokens: 131_072,
9
26
  displayName: 'Llama 4 Scout (17Bx16E)',
@@ -68,21 +85,6 @@ const groqChatModels: AIChatModelCard[] = [
68
85
  },
69
86
  type: 'chat',
70
87
  },
71
- {
72
- abilities: {
73
- functionCall: true,
74
- reasoning: true,
75
- },
76
- contextWindowTokens: 131_072,
77
- displayName: 'DeepSeek R1 Distill Qwen 32B',
78
- id: 'deepseek-r1-distill-qwen-32b',
79
- maxOutput: 16_384,
80
- pricing: {
81
- input: 0.69,
82
- output: 0.69,
83
- },
84
- type: 'chat',
85
- },
86
88
  {
87
89
  abilities: {
88
90
  functionCall: true,
@@ -112,69 +114,6 @@ const groqChatModels: AIChatModelCard[] = [
112
114
  },
113
115
  type: 'chat',
114
116
  },
115
- {
116
- abilities: {
117
- vision: true,
118
- },
119
- contextWindowTokens: 131_072,
120
- description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
121
- displayName: 'Llama 3.2 11B Vision (Preview)',
122
- id: 'llama-3.2-11b-vision-preview',
123
- maxOutput: 8192,
124
- pricing: {
125
- input: 0.18,
126
- output: 0.18,
127
- },
128
- type: 'chat',
129
- },
130
- {
131
- abilities: {
132
- vision: true,
133
- },
134
- contextWindowTokens: 131_072,
135
- description: 'Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
136
- displayName: 'Llama 3.2 90B Vision (Preview)',
137
- enabled: true,
138
- id: 'llama-3.2-90b-vision-preview',
139
- maxOutput: 8192,
140
- pricing: {
141
- input: 0.9,
142
- output: 0.9,
143
- },
144
- type: 'chat',
145
- },
146
- {
147
- contextWindowTokens: 131_072,
148
- displayName: 'Llama 3.2 1B (Preview)',
149
- id: 'llama-3.2-1b-preview',
150
- maxOutput: 8192,
151
- pricing: {
152
- input: 0.04,
153
- output: 0.04,
154
- },
155
- type: 'chat',
156
- },
157
- {
158
- contextWindowTokens: 131_072,
159
- displayName: 'Llama 3.2 3B (Preview)',
160
- id: 'llama-3.2-3b-preview',
161
- maxOutput: 8192,
162
- pricing: {
163
- input: 0.06,
164
- output: 0.06,
165
- },
166
- type: 'chat',
167
- },
168
- {
169
- contextWindowTokens: 8192,
170
- displayName: 'Llama 3.3 70B SpecDec',
171
- id: 'llama-3.3-70b-specdec',
172
- pricing: {
173
- input: 0.59,
174
- output: 0.99,
175
- },
176
- type: 'chat',
177
- },
178
117
  {
179
118
  abilities: {
180
119
  functionCall: true,
@@ -236,29 +175,6 @@ const groqChatModels: AIChatModelCard[] = [
236
175
  },
237
176
  type: 'chat',
238
177
  },
239
- {
240
- abilities: {
241
- functionCall: true,
242
- },
243
- contextWindowTokens: 131_072,
244
- displayName: 'Qwen 2.5 32B',
245
- id: 'qwen-2.5-32b',
246
- pricing: {
247
- input: 0.79,
248
- output: 0.79,
249
- },
250
- type: 'chat',
251
- },
252
- {
253
- contextWindowTokens: 131_072,
254
- displayName: 'Qwen 2.5 Coder 32B',
255
- id: 'qwen-2.5-coder-32b',
256
- pricing: {
257
- input: 0.79,
258
- output: 0.79,
259
- },
260
- type: 'chat',
261
- },
262
178
  {
263
179
  contextWindowTokens: 8192,
264
180
  displayName: 'Llama Guard 3 8B',
@@ -8,6 +8,48 @@ import {
8
8
  } from '@/types/aiModel';
9
9
 
10
10
  export const openaiChatModels: AIChatModelCard[] = [
11
+ {
12
+ abilities: {
13
+ functionCall: true,
14
+ reasoning: true,
15
+ vision: true,
16
+ },
17
+ contextWindowTokens: 200_000,
18
+ description:
19
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
20
+ displayName: 'o3',
21
+ enabled: true,
22
+ id: 'o3',
23
+ maxOutput: 100_000,
24
+ pricing: {
25
+ cachedInput: 2.5,
26
+ input: 10,
27
+ output: 40,
28
+ },
29
+ releasedAt: '2025-04-17',
30
+ type: 'chat',
31
+ },
32
+ {
33
+ abilities: {
34
+ functionCall: true,
35
+ reasoning: true,
36
+ vision: true,
37
+ },
38
+ contextWindowTokens: 200_000,
39
+ description:
40
+ 'o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
41
+ displayName: 'o4-mini',
42
+ enabled: true,
43
+ id: 'o4-mini',
44
+ maxOutput: 100_000,
45
+ pricing: {
46
+ cachedInput: 0.275,
47
+ input: 1.1,
48
+ output: 4.4,
49
+ },
50
+ releasedAt: '2025-04-17',
51
+ type: 'chat',
52
+ },
11
53
  {
12
54
  abilities: {
13
55
  functionCall: true,
@@ -55,9 +97,8 @@ export const openaiChatModels: AIChatModelCard[] = [
55
97
  },
56
98
  contextWindowTokens: 1_047_576,
57
99
  description:
58
- 'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
100
+ 'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
59
101
  displayName: 'GPT-4.1 nano',
60
- enabled: true,
61
102
  id: 'gpt-4.1-nano',
62
103
  maxOutput: 32_768,
63
104
  pricing: {
@@ -76,8 +117,7 @@ export const openaiChatModels: AIChatModelCard[] = [
76
117
  contextWindowTokens: 200_000,
77
118
  description:
78
119
  'o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
79
- displayName: 'OpenAI o3-mini',
80
- enabled: true,
120
+ displayName: 'o3-mini',
81
121
  id: 'o3-mini',
82
122
  maxOutput: 100_000,
83
123
  pricing: {
@@ -95,7 +135,7 @@ export const openaiChatModels: AIChatModelCard[] = [
95
135
  contextWindowTokens: 128_000,
96
136
  description:
97
137
  'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
98
- displayName: 'OpenAI o1-mini',
138
+ displayName: 'o1-mini',
99
139
  id: 'o1-mini',
100
140
  maxOutput: 65_536,
101
141
  pricing: {
@@ -114,8 +154,7 @@ export const openaiChatModels: AIChatModelCard[] = [
114
154
  contextWindowTokens: 200_000,
115
155
  description:
116
156
  'o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。',
117
- displayName: 'OpenAI o1',
118
- enabled: true,
157
+ displayName: 'o1',
119
158
  id: 'o1',
120
159
  maxOutput: 100_000,
121
160
  pricing: {
@@ -133,7 +172,7 @@ export const openaiChatModels: AIChatModelCard[] = [
133
172
  contextWindowTokens: 128_000,
134
173
  description:
135
174
  'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
136
- displayName: 'OpenAI o1-preview',
175
+ displayName: 'o1-preview',
137
176
  id: 'o1-preview',
138
177
  maxOutput: 32_768,
139
178
  pricing: {
@@ -11,11 +11,168 @@ const openrouterChatModels: AIChatModelCard[] = [
11
11
  type: 'chat',
12
12
  },
13
13
  {
14
+ abilities: {
15
+ functionCall: true,
16
+ reasoning: true,
17
+ vision: true,
18
+ },
19
+ contextWindowTokens: 200_000,
20
+ description:
21
+ 'o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。',
22
+ displayName: 'o3',
23
+ id: 'o3',
24
+ maxOutput: 100_000,
25
+ pricing: {
26
+ cachedInput: 2.5,
27
+ input: 10,
28
+ output: 40,
29
+ },
30
+ releasedAt: '2025-04-17',
31
+ type: 'chat',
32
+ },
33
+ {
34
+ abilities: {
35
+ functionCall: true,
36
+ reasoning: true,
37
+ vision: true,
38
+ },
39
+ contextWindowTokens: 200_000,
40
+ description:
41
+ 'o4-mini 高推理等级版,专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
42
+ displayName: 'o4-mini (high)',
43
+ id: 'openai/o4-mini-high',
44
+ maxOutput: 100_000,
45
+ pricing: {
46
+ cachedInput: 0.275,
47
+ input: 1.1,
48
+ output: 4.4,
49
+ },
50
+ releasedAt: '2025-04-17',
51
+ type: 'chat',
52
+ },
53
+ {
54
+ abilities: {
55
+ functionCall: true,
56
+ reasoning: true,
57
+ vision: true,
58
+ },
59
+ contextWindowTokens: 200_000,
60
+ description:
61
+ 'o4-mini 专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。',
62
+ displayName: 'o4-mini',
63
+ id: 'openai/o4-mini',
64
+ maxOutput: 100_000,
65
+ pricing: {
66
+ cachedInput: 0.275,
67
+ input: 1.1,
68
+ output: 4.4,
69
+ },
70
+ releasedAt: '2025-04-17',
71
+ type: 'chat',
72
+ },
73
+ {
74
+ abilities: {
75
+ functionCall: true,
76
+ vision: true,
77
+ },
78
+ contextWindowTokens: 1_047_576,
79
+ description:
80
+ 'GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。',
81
+ displayName: 'GPT-4.1',
82
+ id: 'gpt-4.1',
83
+ maxOutput: 32_768,
84
+ pricing: {
85
+ cachedInput: 0.5,
86
+ input: 2,
87
+ output: 8,
88
+ },
89
+ releasedAt: '2025-04-14',
90
+ type: 'chat',
91
+ },
92
+ {
93
+ abilities: {
94
+ functionCall: true,
95
+ vision: true,
96
+ },
97
+ contextWindowTokens: 1_047_576,
98
+ description:
99
+ 'GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。',
100
+ displayName: 'GPT-4.1 mini',
101
+ id: 'gpt-4.1-mini',
102
+ maxOutput: 32_768,
103
+ pricing: {
104
+ cachedInput: 0.1,
105
+ input: 0.4,
106
+ output: 1.6,
107
+ },
108
+ releasedAt: '2025-04-14',
109
+ type: 'chat',
110
+ },
111
+ {
112
+ abilities: {
113
+ functionCall: true,
114
+ vision: true,
115
+ },
116
+ contextWindowTokens: 1_047_576,
117
+ description:
118
+ 'GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。',
119
+ displayName: 'GPT-4.1 nano',
120
+ id: 'gpt-4.1-nano',
121
+ maxOutput: 32_768,
122
+ pricing: {
123
+ cachedInput: 0.025,
124
+ input: 0.1,
125
+ output: 0.4,
126
+ },
127
+ releasedAt: '2025-04-14',
128
+ type: 'chat',
129
+ },
130
+ {
131
+ abilities: {
132
+ functionCall: true,
133
+ reasoning: true,
134
+ },
135
+ contextWindowTokens: 200_000,
136
+ description:
137
+ 'o3-mini 高推理等级版,在与 o1-mini 相同的成本和延迟目标下提供高智能。',
138
+ displayName: 'o3-mini (high)',
139
+ id: 'o3-mini-high',
140
+ maxOutput: 100_000,
141
+ pricing: {
142
+ cachedInput: 0.55,
143
+ input: 1.1,
144
+ output: 4.4,
145
+ },
146
+ releasedAt: '2025-01-31',
147
+ type: 'chat',
148
+ },
149
+ {
150
+ abilities: {
151
+ functionCall: true,
152
+ reasoning: true,
153
+ },
154
+ contextWindowTokens: 200_000,
155
+ description:
156
+ 'o3-mini 在与 o1-mini 相同的成本和延迟目标下提供高智能。',
157
+ displayName: 'o3-mini',
158
+ id: 'o3-mini',
159
+ maxOutput: 100_000,
160
+ pricing: {
161
+ cachedInput: 0.55,
162
+ input: 1.1,
163
+ output: 4.4,
164
+ },
165
+ releasedAt: '2025-01-31',
166
+ type: 'chat',
167
+ },
168
+ {
169
+ abilities: {
170
+ reasoning: true,
171
+ },
14
172
  contextWindowTokens: 128_000,
15
173
  description:
16
174
  'o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。',
17
- displayName: 'OpenAI o1-mini',
18
- enabled: true,
175
+ displayName: 'o1-mini',
19
176
  id: 'openai/o1-mini',
20
177
  maxOutput: 65_536,
21
178
  pricing: {
@@ -26,11 +183,13 @@ const openrouterChatModels: AIChatModelCard[] = [
26
183
  type: 'chat',
27
184
  },
28
185
  {
186
+ abilities: {
187
+ reasoning: true,
188
+ },
29
189
  contextWindowTokens: 128_000,
30
190
  description:
31
191
  'o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。',
32
- displayName: 'OpenAI o1-preview',
33
- enabled: true,
192
+ displayName: 'o1-preview',
34
193
  id: 'openai/o1-preview',
35
194
  maxOutput: 32_768,
36
195
  pricing: {
@@ -49,7 +208,6 @@ const openrouterChatModels: AIChatModelCard[] = [
49
208
  description:
50
209
  'GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。',
51
210
  displayName: 'GPT-4o mini',
52
- enabled: true,
53
211
  id: 'openai/gpt-4o-mini',
54
212
  maxOutput: 16_385,
55
213
  pricing: {
@@ -67,7 +225,6 @@ const openrouterChatModels: AIChatModelCard[] = [
67
225
  description:
68
226
  'ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。',
69
227
  displayName: 'GPT-4o',
70
- enabled: true,
71
228
  id: 'openai/gpt-4o',
72
229
  pricing: {
73
230
  input: 2.5,
@@ -84,7 +241,6 @@ const openrouterChatModels: AIChatModelCard[] = [
84
241
  description:
85
242
  'Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。',
86
243
  displayName: 'Claude 3 Haiku',
87
- enabled: true,
88
244
  id: 'anthropic/claude-3-haiku',
89
245
  maxOutput: 4096,
90
246
  pricing: {
@@ -104,7 +260,6 @@ const openrouterChatModels: AIChatModelCard[] = [
104
260
  description:
105
261
  'Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。',
106
262
  displayName: 'Claude 3.5 Haiku',
107
- enabled: true,
108
263
  id: 'anthropic/claude-3.5-haiku',
109
264
  maxOutput: 8192,
110
265
  pricing: {
@@ -125,7 +280,6 @@ const openrouterChatModels: AIChatModelCard[] = [
125
280
  description:
126
281
  'Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
127
282
  displayName: 'Claude 3.5 Sonnet',
128
- enabled: true,
129
283
  id: 'anthropic/claude-3.5-sonnet',
130
284
  maxOutput: 8192,
131
285
  pricing: {
@@ -147,7 +301,6 @@ const openrouterChatModels: AIChatModelCard[] = [
147
301
  description:
148
302
  'Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型,也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。',
149
303
  displayName: 'Claude 3.7 Sonnet',
150
- enabled: true,
151
304
  id: 'anthropic/claude-3.7-sonnet',
152
305
  maxOutput: 8192,
153
306
  pricing: {
@@ -171,7 +324,6 @@ const openrouterChatModels: AIChatModelCard[] = [
171
324
  description:
172
325
  'Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。',
173
326
  displayName: 'Claude 3 Opus',
174
- enabled: true,
175
327
  id: 'anthropic/claude-3-opus',
176
328
  maxOutput: 4096,
177
329
  pricing: {
@@ -191,7 +343,6 @@ const openrouterChatModels: AIChatModelCard[] = [
191
343
  contextWindowTokens: 1_008_192,
192
344
  description: 'Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。',
193
345
  displayName: 'Gemini 1.5 Flash',
194
- enabled: true,
195
346
  id: 'google/gemini-flash-1.5',
196
347
  maxOutput: 8192,
197
348
  pricing: {
@@ -209,7 +360,6 @@ const openrouterChatModels: AIChatModelCard[] = [
209
360
  description:
210
361
  'Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。',
211
362
  displayName: 'Gemini 2.0 Flash',
212
- enabled: true,
213
363
  id: 'google/gemini-2.0-flash-001',
214
364
  maxOutput: 8192,
215
365
  pricing: {
@@ -228,7 +378,6 @@ const openrouterChatModels: AIChatModelCard[] = [
228
378
  contextWindowTokens: 2_008_192,
229
379
  description: 'Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。',
230
380
  displayName: 'Gemini 1.5 Pro',
231
- enabled: true,
232
381
  id: 'google/gemini-pro-1.5',
233
382
  maxOutput: 8192,
234
383
  pricing: {
@@ -245,7 +394,6 @@ const openrouterChatModels: AIChatModelCard[] = [
245
394
  description:
246
395
  '融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。',
247
396
  displayName: 'DeepSeek V2.5',
248
- enabled: true,
249
397
  id: 'deepseek/deepseek-chat',
250
398
  pricing: {
251
399
  input: 0.14,
@@ -262,7 +410,6 @@ const openrouterChatModels: AIChatModelCard[] = [
262
410
  description:
263
411
  'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
264
412
  displayName: 'DeepSeek R1',
265
- enabled: true,
266
413
  id: 'deepseek/deepseek-r1',
267
414
  pricing: {
268
415
  input: 3,
@@ -279,7 +426,6 @@ const openrouterChatModels: AIChatModelCard[] = [
279
426
  description:
280
427
  'DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。',
281
428
  displayName: 'DeepSeek R1 (Free)',
282
- enabled: true,
283
429
  id: 'deepseek/deepseek-r1:free',
284
430
  releasedAt: '2025-01-20',
285
431
  type: 'chat',
@@ -292,7 +438,6 @@ const openrouterChatModels: AIChatModelCard[] = [
292
438
  description:
293
439
  'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
294
440
  displayName: 'Llama 3.2 11B Vision',
295
- enabled: true,
296
441
  id: 'meta-llama/llama-3.2-11b-vision-instruct',
297
442
  pricing: {
298
443
  input: 0.162,
@@ -308,7 +453,6 @@ const openrouterChatModels: AIChatModelCard[] = [
308
453
  description:
309
454
  'LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。',
310
455
  displayName: 'Llama 3.2 90B Vision',
311
- enabled: true,
312
456
  id: 'meta-llama/llama-3.2-90b-vision-instruct',
313
457
  pricing: {
314
458
  input: 0.4,
@@ -324,7 +468,6 @@ const openrouterChatModels: AIChatModelCard[] = [
324
468
  description:
325
469
  'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
326
470
  displayName: 'Llama 3.3 70B Instruct',
327
- enabled: true,
328
471
  id: 'meta-llama/llama-3.3-70b-instruct',
329
472
  pricing: {
330
473
  input: 0.12,
@@ -340,7 +483,6 @@ const openrouterChatModels: AIChatModelCard[] = [
340
483
  description:
341
484
  'Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月',
342
485
  displayName: 'Llama 3.3 70B Instruct (Free)',
343
- enabled: true,
344
486
  id: 'meta-llama/llama-3.3-70b-instruct:free',
345
487
  type: 'chat',
346
488
  },
@@ -348,7 +490,6 @@ const openrouterChatModels: AIChatModelCard[] = [
348
490
  contextWindowTokens: 32_768,
349
491
  description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
350
492
  displayName: 'Qwen2 7B (Free)',
351
- enabled: true,
352
493
  id: 'qwen/qwen-2-7b-instruct:free',
353
494
  type: 'chat',
354
495
  },
@@ -356,7 +497,6 @@ const openrouterChatModels: AIChatModelCard[] = [
356
497
  contextWindowTokens: 32_768,
357
498
  description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
358
499
  displayName: 'Llama 3.1 8B (Free)',
359
- enabled: true,
360
500
  id: 'meta-llama/llama-3.1-8b-instruct:free',
361
501
  type: 'chat',
362
502
  },
@@ -364,7 +504,6 @@ const openrouterChatModels: AIChatModelCard[] = [
364
504
  contextWindowTokens: 8192,
365
505
  description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
366
506
  displayName: 'Gemma 2 9B (Free)',
367
- enabled: true,
368
507
  id: 'google/gemma-2-9b-it:free',
369
508
  type: 'chat',
370
509
  },
@@ -377,7 +516,6 @@ const openrouterChatModels: AIChatModelCard[] = [
377
516
  description:
378
517
  'Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。',
379
518
  displayName: 'Gemini 2.0 Pro Experimental 02-05 (Free)',
380
- enabled: true,
381
519
  id: 'google/gemini-2.0-pro-exp-02-05:free',
382
520
  maxOutput: 8192,
383
521
  releasedAt: '2025-02-05',
@@ -4,6 +4,51 @@ import { AIChatModelCard } from '@/types/aiModel';
4
4
  // pricing https://console.volcengine.com/ark/region:ark+cn-beijing/openManagement
5
5
 
6
6
  const doubaoChatModels: AIChatModelCard[] = [
7
+ {
8
+ abilities: {
9
+ functionCall: true,
10
+ reasoning: true,
11
+ },
12
+ config: {
13
+ deploymentName: 'doubao-1-5-thinking-pro-250415',
14
+ },
15
+ contextWindowTokens: 128_000,
16
+ description:
17
+ 'Doubao-1.5全新深度思考模型,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。',
18
+ displayName: 'Doubao 1.5 Thinking Pro',
19
+ enabled: true,
20
+ id: 'Doubao-1.5-thinking-pro',
21
+ maxOutput: 16_000,
22
+ pricing: {
23
+ currency: 'CNY',
24
+ input: 4,
25
+ output: 16,
26
+ },
27
+ type: 'chat',
28
+ },
29
+ {
30
+ abilities: {
31
+ functionCall: true,
32
+ reasoning: true,
33
+ vision: true,
34
+ },
35
+ config: {
36
+ deploymentName: 'doubao-1-5-thinking-pro-vision-250415',
37
+ },
38
+ contextWindowTokens: 128_000,
39
+ description:
40
+ 'Doubao-1.5全新深度思考模型,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。',
41
+ displayName: 'Doubao 1.5 Thinking Pro Vision',
42
+ enabled: true,
43
+ id: 'Doubao-1.5-thinking-pro-vision',
44
+ maxOutput: 16_000,
45
+ pricing: {
46
+ currency: 'CNY',
47
+ input: 4,
48
+ output: 16,
49
+ },
50
+ type: 'chat',
51
+ },
7
52
  {
8
53
  abilities: {
9
54
  functionCall: true,
@@ -113,7 +158,7 @@ const doubaoChatModels: AIChatModelCard[] = [
113
158
  config: {
114
159
  deploymentName: 'doubao-1-5-pro-256k-250115',
115
160
  },
116
- contextWindowTokens: 32_768,
161
+ contextWindowTokens: 256_000,
117
162
  description:
118
163
  'Doubao-1.5-pro-256k 基于 Doubao-1.5-Pro 全面升级版,整体效果大幅提升 10%。支持 256k 上下文窗口的推理,输出长度支持最大 12k tokens。更高性能、更大窗口、超高性价比,适用于更广泛的应用场景。',
119
164
  displayName: 'Doubao 1.5 Pro 256k',
@@ -159,7 +204,6 @@ const doubaoChatModels: AIChatModelCard[] = [
159
204
  description:
160
205
  'Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。',
161
206
  displayName: 'Doubao 1.5 Vision Pro 32k',
162
- enabled: true,
163
207
  id: 'Doubao-1.5-vision-pro-32k',
164
208
  maxOutput: 12_288,
165
209
  pricing: {
@@ -170,6 +214,50 @@ const doubaoChatModels: AIChatModelCard[] = [
170
214
  releasedAt: '2025-01-15',
171
215
  type: 'chat',
172
216
  },
217
+ {
218
+ abilities: {
219
+ functionCall: true,
220
+ vision: true,
221
+ },
222
+ config: {
223
+ deploymentName: 'doubao-1-5-vision-pro-250328',
224
+ },
225
+ contextWindowTokens: 128_000,
226
+ description:
227
+ 'Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。',
228
+ displayName: 'Doubao 1.5 Vision Pro',
229
+ id: 'Doubao-1.5-vision-pro',
230
+ maxOutput: 16_384,
231
+ pricing: {
232
+ currency: 'CNY',
233
+ input: 3,
234
+ output: 9,
235
+ },
236
+ releasedAt: '2025-03-28',
237
+ type: 'chat',
238
+ },
239
+ {
240
+ abilities: {
241
+ functionCall: true,
242
+ vision: true,
243
+ },
244
+ config: {
245
+ deploymentName: 'doubao-1-5-vision-lite-250315',
246
+ },
247
+ contextWindowTokens: 128_000,
248
+ description:
249
+ 'Doubao-1.5-vision-lite 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。支持 128k 上下文窗口,输出长度支持最大 16k tokens。',
250
+ displayName: 'Doubao 1.5 Vision Lite',
251
+ id: 'doubao-1.5-vision-lite',
252
+ maxOutput: 16_384,
253
+ pricing: {
254
+ currency: 'CNY',
255
+ input: 1.5,
256
+ output: 4.5,
257
+ },
258
+ releasedAt: '2025-03-15',
259
+ type: 'chat',
260
+ },
173
261
  {
174
262
  abilities: {
175
263
  vision: true,