@lobehub/chat 1.75.3 → 1.75.5

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (55) hide show
  1. package/CHANGELOG.md +52 -0
  2. package/README.md +1 -1
  3. package/README.zh-CN.md +1 -1
  4. package/changelog/v1.json +18 -0
  5. package/docs/self-hosting/advanced/model-list.mdx +5 -3
  6. package/docs/self-hosting/advanced/model-list.zh-CN.mdx +5 -3
  7. package/docs/usage/providers/infiniai.zh-CN.mdx +4 -0
  8. package/locales/ar/models.json +51 -54
  9. package/locales/ar/providers.json +3 -0
  10. package/locales/bg-BG/models.json +51 -54
  11. package/locales/bg-BG/providers.json +3 -0
  12. package/locales/de-DE/models.json +51 -54
  13. package/locales/de-DE/providers.json +3 -0
  14. package/locales/en-US/models.json +51 -54
  15. package/locales/en-US/providers.json +3 -0
  16. package/locales/es-ES/models.json +51 -54
  17. package/locales/es-ES/providers.json +3 -0
  18. package/locales/fa-IR/models.json +51 -54
  19. package/locales/fa-IR/providers.json +3 -0
  20. package/locales/fr-FR/models.json +51 -54
  21. package/locales/fr-FR/providers.json +3 -0
  22. package/locales/it-IT/models.json +51 -54
  23. package/locales/it-IT/providers.json +3 -0
  24. package/locales/ja-JP/models.json +51 -54
  25. package/locales/ja-JP/providers.json +3 -0
  26. package/locales/ko-KR/models.json +51 -54
  27. package/locales/ko-KR/providers.json +3 -0
  28. package/locales/nl-NL/models.json +51 -54
  29. package/locales/nl-NL/providers.json +3 -0
  30. package/locales/pl-PL/models.json +51 -54
  31. package/locales/pl-PL/providers.json +3 -0
  32. package/locales/pt-BR/models.json +51 -54
  33. package/locales/pt-BR/providers.json +3 -0
  34. package/locales/ru-RU/models.json +51 -54
  35. package/locales/ru-RU/providers.json +3 -0
  36. package/locales/tr-TR/models.json +51 -54
  37. package/locales/tr-TR/providers.json +3 -0
  38. package/locales/vi-VN/models.json +51 -54
  39. package/locales/vi-VN/providers.json +3 -0
  40. package/locales/zh-CN/models.json +55 -58
  41. package/locales/zh-CN/providers.json +3 -0
  42. package/locales/zh-TW/models.json +51 -54
  43. package/locales/zh-TW/providers.json +3 -0
  44. package/package.json +1 -1
  45. package/src/config/aiModels/google.ts +17 -43
  46. package/src/config/aiModels/infiniai.ts +52 -55
  47. package/src/config/aiModels/qwen.ts +17 -1
  48. package/src/config/aiModels/siliconcloud.ts +33 -1
  49. package/src/config/aiModels/tencentcloud.ts +17 -0
  50. package/src/config/aiModels/vertexai.ts +1 -53
  51. package/src/config/aiModels/volcengine.ts +1 -1
  52. package/src/libs/agent-runtime/infiniai/index.ts +38 -3
  53. package/src/utils/format.ts +1 -1
  54. package/src/utils/parseModels.test.ts +14 -0
  55. package/src/utils/parseModels.ts +4 -0
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.75.3",
3
+ "version": "1.75.5",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -4,22 +4,23 @@ const googleChatModels: AIChatModelCard[] = [
4
4
  {
5
5
  abilities: {
6
6
  functionCall: true,
7
+ reasoning: true,
7
8
  search: true,
8
9
  vision: true,
9
10
  },
10
- contextWindowTokens: 2_097_152 + 8192,
11
+ contextWindowTokens: 1_048_576 + 65_536,
11
12
  description:
12
- 'Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。',
13
- displayName: 'Gemini 2.0 Pro Experimental 02-05',
13
+ 'Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,还能利用长上下文来分析大型数据集、代码库和文档。',
14
+ displayName: 'Gemini 2.5 Pro Experimental 03-25',
14
15
  enabled: true,
15
- id: 'gemini-2.0-pro-exp-02-05',
16
- maxOutput: 8192,
16
+ id: 'gemini-2.5-pro-exp-03-25',
17
+ maxOutput: 65_536,
17
18
  pricing: {
18
19
  cachedInput: 0,
19
20
  input: 0,
20
21
  output: 0,
21
22
  },
22
- releasedAt: '2025-02-05',
23
+ releasedAt: '2025-03-25',
23
24
  settings: {
24
25
  searchImpl: 'params',
25
26
  searchProvider: 'google',
@@ -46,32 +47,6 @@ const googleChatModels: AIChatModelCard[] = [
46
47
  releasedAt: '2025-01-21',
47
48
  type: 'chat',
48
49
  },
49
- {
50
- abilities: {
51
- functionCall: true,
52
- reasoning: true,
53
- search: true,
54
- vision: true,
55
- },
56
- contextWindowTokens: 1_048_567 + 65_536,
57
- description:
58
- 'Gemini 2.5 Pro Experimental 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,还能利用长上下文来分析大型数据集、代码库和文档。',
59
- displayName: 'Gemini 2.5 Pro Experimental 03-25',
60
- enabled: true,
61
- id: 'gemini-2.5-pro-exp-03-25',
62
- maxOutput: 65_536,
63
- pricing: {
64
- cachedInput: 0,
65
- input: 0,
66
- output: 0,
67
- },
68
- releasedAt: '2025-03-25',
69
- settings: {
70
- searchImpl: 'params',
71
- searchProvider: 'google',
72
- },
73
- type: 'chat',
74
- },
75
50
  {
76
51
  abilities: {
77
52
  functionCall: true,
@@ -126,7 +101,7 @@ const googleChatModels: AIChatModelCard[] = [
126
101
  imageOutput: true,
127
102
  vision: true,
128
103
  },
129
- contextWindowTokens: 32_768,
104
+ contextWindowTokens: 1_048_576 + 8192,
130
105
  description: 'Gemini 2.0 Flash 实验模型,支持图像生成',
131
106
  displayName: 'Gemini 2.0 Flash (Image Generation) Experimental',
132
107
  enabled: true,
@@ -178,7 +153,7 @@ const googleChatModels: AIChatModelCard[] = [
178
153
  imageOutput: true,
179
154
  vision: true,
180
155
  },
181
- contextWindowTokens: 32_768,
156
+ contextWindowTokens: 1_048_576 + 8192,
182
157
  description: 'Gemini 2.0 Flash 模型变体,针对成本效益和低延迟等目标进行了优化。',
183
158
  displayName: 'Gemini 2.0 Flash Exp',
184
159
  id: 'gemini-2.0-flash-exp',
@@ -192,7 +167,6 @@ const googleChatModels: AIChatModelCard[] = [
192
167
  },
193
168
  {
194
169
  abilities: {
195
- functionCall: true,
196
170
  vision: true,
197
171
  },
198
172
  contextWindowTokens: 40_959,
@@ -256,9 +230,9 @@ const googleChatModels: AIChatModelCard[] = [
256
230
  id: 'gemini-1.5-pro-002', // Deprecated on 2025-09-24
257
231
  maxOutput: 8192,
258
232
  pricing: {
259
- cachedInput: 0.315,
233
+ cachedInput: 0.3125,
260
234
  input: 1.25,
261
- output: 2.5,
235
+ output: 5,
262
236
  },
263
237
  releasedAt: '2024-09-24',
264
238
  type: 'chat',
@@ -274,9 +248,9 @@ const googleChatModels: AIChatModelCard[] = [
274
248
  id: 'gemini-1.5-pro-001', // Deprecated on 2025-05-27
275
249
  maxOutput: 8192,
276
250
  pricing: {
277
- cachedInput: 0.875,
278
- input: 3.5,
279
- output: 10.5,
251
+ cachedInput: 0.3125,
252
+ input: 1.25,
253
+ output: 5,
280
254
  },
281
255
  releasedAt: '2024-02-15',
282
256
  type: 'chat',
@@ -292,9 +266,9 @@ const googleChatModels: AIChatModelCard[] = [
292
266
  id: 'gemini-1.5-flash-8b-latest',
293
267
  maxOutput: 8192,
294
268
  pricing: {
295
- cachedInput: 0.02,
296
- input: 0.075,
297
- output: 0.3,
269
+ cachedInput: 0.01,
270
+ input: 0.0375,
271
+ output: 0.15,
298
272
  },
299
273
  releasedAt: '2024-10-03',
300
274
  type: 'chat',
@@ -2,6 +2,7 @@ import { AIChatModelCard } from '@/types/aiModel';
2
2
 
3
3
  // https://cloud.infini-ai.com/genstudio/model
4
4
  // All models are currently free
5
+ // Currently the platform doesn't support Function Call
5
6
 
6
7
  const infiniaiChatModels: AIChatModelCard[] = [
7
8
  {
@@ -24,8 +25,8 @@ const infiniaiChatModels: AIChatModelCard[] = [
24
25
  {
25
26
  contextWindowTokens: 65_536,
26
27
  description:
27
- 'DeepSeek-V3 是一个强大的专家混合(MoE)语言模型,总参数量为 671B,每个 Token 激活 37B 参数。该模型采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,实现了高效推理和经济训练。',
28
- displayName: 'DeepSeek V3',
28
+ 'DeepSeek-V3-0324 是一个强大的专家混合(MoE)语言模型,总参数量为 671B,每个 Token 激活 37B 参数。该模型采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,实现了高效推理和经济训练,并在前代 DeepSeek-V3 的基础上显著提升了性能。',
29
+ displayName: 'DeepSeek V3 0324',
29
30
  enabled: true,
30
31
  id: 'deepseek-v3',
31
32
  pricing: {
@@ -54,7 +55,6 @@ const infiniaiChatModels: AIChatModelCard[] = [
54
55
  description:
55
56
  'DeepSeek-R1-Distill-Qwen-32B 是基于 DeepSeek-R1 蒸馏而来的模型,在 Qwen2.5-32B 的基础上使用 DeepSeek-R1 生成的样本进行微调。该模型在各种基准测试中表现出色,保持了强大的推理能力。',
56
57
  displayName: 'DeepSeek R1 Distill Qwen 32B',
57
- enabled: true,
58
58
  id: 'deepseek-r1-distill-qwen-32b',
59
59
  pricing: {
60
60
  currency: 'CNY',
@@ -64,12 +64,15 @@ const infiniaiChatModels: AIChatModelCard[] = [
64
64
  type: 'chat',
65
65
  },
66
66
  {
67
- contextWindowTokens: 32_768,
67
+ abilities: {
68
+ vision: true,
69
+ },
70
+ contextWindowTokens: 125_000,
68
71
  description:
69
- 'Qwen2.5 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
70
- displayName: 'Qwen2.5 72B Instruct',
72
+ 'Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。旗舰模型 Qwen2.5-VL-72B-Instruct 在涵盖多个领域和任务的基准测试中展现出强大的竞争力,包括大学水平的问题解答、数学、文档理解、通用问答、视频理解以及视觉代理任务等。',
73
+ displayName: 'Qwen2.5 VL 72B Instruct',
71
74
  enabled: true,
72
- id: 'qwen2.5-72b-instruct',
75
+ id: 'qwen2.5-vl-72b-instruct',
73
76
  pricing: {
74
77
  currency: 'CNY',
75
78
  input: 0,
@@ -78,12 +81,15 @@ const infiniaiChatModels: AIChatModelCard[] = [
78
81
  type: 'chat',
79
82
  },
80
83
  {
81
- contextWindowTokens: 32_768,
84
+ abilities: {
85
+ vision: true,
86
+ },
87
+ contextWindowTokens: 125_000,
82
88
  description:
83
- 'Qwen2.5 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
84
- displayName: 'Qwen2.5 32B Instruct',
89
+ 'Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。32B 版本使用了强化学习技术优化模型,与 Qwen2.5 VL 系列的其它模型相比,提供了更符合人类偏好的输出风格、复杂数学问题的推理能力,以及图像细粒度理解与推理能力。',
90
+ displayName: 'Qwen2.5 VL 32B Instruct',
85
91
  enabled: true,
86
- id: 'qwen2.5-32b-instruct',
92
+ id: 'qwen2.5-vl-32b-instruct',
87
93
  pricing: {
88
94
  currency: 'CNY',
89
95
  input: 0,
@@ -92,12 +98,14 @@ const infiniaiChatModels: AIChatModelCard[] = [
92
98
  type: 'chat',
93
99
  },
94
100
  {
95
- contextWindowTokens: 32_768,
101
+ abilities: {
102
+ vision: true,
103
+ },
104
+ contextWindowTokens: 125_000,
96
105
  description:
97
- 'Qwen2.5-Coder 是最新的代码专用 Qwen 大型语言模型系列。Qwen2.5-Coder 在 CodeQwen1.5 的基础上带来了以下改进:\n显著提升代码生成、代码推理和代码修复能力。\n支持真实世界应用,例如代码代理,增强编码能力和数学及一般能力。\n支持长上下文处理。',
98
- displayName: 'Qwen2.5 Coder 32B Instruct',
99
- enabled: true,
100
- id: 'qwen2.5-coder-32b-instruct',
106
+ 'Qwen2.5-VL 系列模型提升了模型的智能水平、实用性和适用性,使其在自然对话、内容创作、专业知识服务及代码开发等场景中表现更优。',
107
+ displayName: 'Qwen2.5 VL 7B Instruct',
108
+ id: 'qwen2.5-vl-7b-instruct',
101
109
  pricing: {
102
110
  currency: 'CNY',
103
111
  input: 0,
@@ -109,9 +117,9 @@ const infiniaiChatModels: AIChatModelCard[] = [
109
117
  contextWindowTokens: 32_768,
110
118
  description:
111
119
  'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
112
- displayName: 'Qwen2.5 14B Instruct',
120
+ displayName: 'Qwen2.5 72B Instruct',
113
121
  enabled: true,
114
- id: 'qwen2.5-14b-instruct',
122
+ id: 'qwen2.5-72b-instruct',
115
123
  pricing: {
116
124
  currency: 'CNY',
117
125
  input: 0,
@@ -123,9 +131,9 @@ const infiniaiChatModels: AIChatModelCard[] = [
123
131
  contextWindowTokens: 32_768,
124
132
  description:
125
133
  'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
126
- displayName: 'Qwen2.5 7B Instruct',
134
+ displayName: 'Qwen2.5 32B Instruct',
127
135
  enabled: true,
128
- id: 'qwen2.5-7b-instruct',
136
+ id: 'qwen2.5-32b-instruct',
129
137
  pricing: {
130
138
  currency: 'CNY',
131
139
  input: 0,
@@ -134,12 +142,11 @@ const infiniaiChatModels: AIChatModelCard[] = [
134
142
  type: 'chat',
135
143
  },
136
144
  {
137
- contextWindowTokens: 8192,
145
+ contextWindowTokens: 32_768,
138
146
  description:
139
- 'Meta 发布的 LLaMA 3.3 多语言大规模语言模型(LLMs)是一个经过预训练和指令微调的生成模型,提供 70B 规模(文本输入/文本输出)。该模型使用超过 15T 的数据进行训练,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,知识更新截止于 2023 年 12 月。',
140
- displayName: 'LLaMA 3.3 70B',
141
- enabled: true,
142
- id: 'llama-3.3-70b-instruct',
147
+ 'Qwen2.5-Coder 是最新的代码专用 Qwen 大型语言模型系列。Qwen2.5-Coder CodeQwen1.5 的基础上带来了以下改进:\n显著提升代码生成、代码推理和代码修复能力。\n支持真实世界应用,例如代码代理,增强编码能力和数学及一般能力。\n支持长上下文处理。',
148
+ displayName: 'Qwen2.5 Coder 32B Instruct',
149
+ id: 'qwen2.5-coder-32b-instruct',
143
150
  pricing: {
144
151
  currency: 'CNY',
145
152
  input: 0,
@@ -150,10 +157,9 @@ const infiniaiChatModels: AIChatModelCard[] = [
150
157
  {
151
158
  contextWindowTokens: 32_768,
152
159
  description:
153
- 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
154
- displayName: 'Qwen 2 72B Instruct',
155
- enabled: true,
156
- id: 'qwen2-72b-instruct',
160
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
161
+ displayName: 'Qwen2.5 14B Instruct',
162
+ id: 'qwen2.5-14b-instruct',
157
163
  pricing: {
158
164
  currency: 'CNY',
159
165
  input: 0,
@@ -164,10 +170,9 @@ const infiniaiChatModels: AIChatModelCard[] = [
164
170
  {
165
171
  contextWindowTokens: 32_768,
166
172
  description:
167
- 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
168
- displayName: 'Qwen 2 7B Instruct',
169
- enabled: true,
170
- id: 'qwen2-7b-instruct',
173
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
174
+ displayName: 'Qwen2.5 7B Instruct',
175
+ id: 'qwen2.5-7b-instruct',
171
176
  pricing: {
172
177
  currency: 'CNY',
173
178
  input: 0,
@@ -176,12 +181,12 @@ const infiniaiChatModels: AIChatModelCard[] = [
176
181
  type: 'chat',
177
182
  },
178
183
  {
179
- contextWindowTokens: 4096,
184
+ contextWindowTokens: 8192,
180
185
  description:
181
- 'Yi-1.5 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。',
182
- displayName: 'Yi-1.5 34B Chat',
186
+ 'Meta 发布的 LLaMA 3.3 多语言大规模语言模型(LLMs)是一个经过预训练和指令微调的生成模型,提供 70B 规模(文本输入/文本输出)。该模型使用超过 15T 的数据进行训练,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,知识更新截止于 2023 12 月。',
187
+ displayName: 'LLaMA 3.3 70B',
183
188
  enabled: true,
184
- id: 'yi-1.5-34b-chat',
189
+ id: 'llama-3.3-70b-instruct',
185
190
  pricing: {
186
191
  currency: 'CNY',
187
192
  input: 0,
@@ -192,10 +197,9 @@ const infiniaiChatModels: AIChatModelCard[] = [
192
197
  {
193
198
  contextWindowTokens: 32_768,
194
199
  description:
195
- 'Qwen1.5 系列是 Qwen2 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-72b-chat 是其中专用于 chat 场景的 720 亿参数的大模型。',
196
- displayName: 'Qwen1.5 72B Chat',
197
- enabled: true,
198
- id: 'qwen1.5-72b-chat',
200
+ 'Qwen2 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
201
+ displayName: 'Qwen 2 72B Instruct',
202
+ id: 'qwen2-72b-instruct',
199
203
  pricing: {
200
204
  currency: 'CNY',
201
205
  input: 0,
@@ -206,10 +210,9 @@ const infiniaiChatModels: AIChatModelCard[] = [
206
210
  {
207
211
  contextWindowTokens: 32_768,
208
212
  description:
209
- 'Qwen1.5 系列是 Qwen2 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-32b-chat 是其中专用于 chat 场景的 320 亿参数的大模型,较于 14b 模型在智能体场景更强,较于 72b 模型推理成本更低。',
210
- displayName: 'Qwen1.5 32B Chat',
211
- enabled: true,
212
- id: 'qwen1.5-32b-chat',
213
+ 'Qwen2 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
214
+ displayName: 'Qwen 2 7B Instruct',
215
+ id: 'qwen2-7b-instruct',
213
216
  pricing: {
214
217
  currency: 'CNY',
215
218
  input: 0,
@@ -218,12 +221,11 @@ const infiniaiChatModels: AIChatModelCard[] = [
218
221
  type: 'chat',
219
222
  },
220
223
  {
221
- contextWindowTokens: 8192,
224
+ contextWindowTokens: 4096,
222
225
  description:
223
- 'Qwen1.5 系列是 Qwen2 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-14b-chat 是其中专用于 chat 场景的 140 亿参数的主流大小模型。',
224
- displayName: 'Qwen1.5 14B Chat',
225
- enabled: true,
226
- id: 'qwen1.5-14b-chat',
226
+ 'Yi-1.5 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。',
227
+ displayName: 'Yi-1.5 34B Chat',
228
+ id: 'yi-1.5-34b-chat',
227
229
  pricing: {
228
230
  currency: 'CNY',
229
231
  input: 0,
@@ -235,7 +237,6 @@ const infiniaiChatModels: AIChatModelCard[] = [
235
237
  contextWindowTokens: 16_384,
236
238
  description: 'GLM-4-9B-Chat 是智谱 AI 推出的最新一代预训练模型 GLM-4-9B 的人类偏好对齐版本。',
237
239
  displayName: 'GLM-4 9B Chat',
238
- enabled: true,
239
240
  id: 'glm-4-9b-chat',
240
241
  pricing: {
241
242
  currency: 'CNY',
@@ -249,7 +250,6 @@ const infiniaiChatModels: AIChatModelCard[] = [
249
250
  description:
250
251
  'ChatGLM3 是智谱 AI 与清华 KEG 实验室发布的闭源模型,经过海量中英标识符的预训练与人类偏好对齐训练,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了 16%、36%、280% 的提升,并登顶中文任务榜单 C-Eval。适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。',
251
252
  displayName: 'ChatGLM3',
252
- enabled: true,
253
253
  id: 'chatglm3',
254
254
  pricing: {
255
255
  currency: 'CNY',
@@ -263,7 +263,6 @@ const infiniaiChatModels: AIChatModelCard[] = [
263
263
  description:
264
264
  'ChatGLM3-6b-base 是由智谱开发的 ChatGLM 系列最新一代的 60 亿参数规模的开源的基础模型。',
265
265
  displayName: 'ChatGLM3 6B Base',
266
- enabled: true,
267
266
  id: 'chatglm3-6b-base',
268
267
  pricing: {
269
268
  currency: 'CNY',
@@ -277,7 +276,6 @@ const infiniaiChatModels: AIChatModelCard[] = [
277
276
  description:
278
277
  'Llama2 是由 Meta 开发并开源的大型语言模型(LLM)系列,这是一组从 70 亿到 700 亿参数不同规模、经过预训练和微调的生成式文本模型。架构层面,LLama2 是一个使用优化型转换器架构的自动回归语言模型。调整后的版本使用有监督的微调(SFT)和带有人类反馈的强化学习(RLHF)以对齐人类对有用性和安全性的偏好。Llama2 较 Llama 系列在多种学术数据集上有着更加不俗的表现,为大量其他模型提供了设计和开发的思路。',
279
278
  displayName: 'Llama 2 7B Chat',
280
- enabled: true,
281
279
  id: 'llama-2-7b-chat',
282
280
  pricing: {
283
281
  currency: 'CNY',
@@ -291,7 +289,6 @@ const infiniaiChatModels: AIChatModelCard[] = [
291
289
  description:
292
290
  'Megrez-3B-Instruct 是由无问芯穹完全自主训练的大语言模型。Megrez-3B-Instruct 旨在通过软硬协同理念,打造一款极速推理、小巧精悍、极易上手的端侧智能解决方案。',
293
291
  displayName: 'Megrez 3B Instruct',
294
- enabled: true,
295
292
  id: 'megrez-3b-instruct',
296
293
  pricing: {
297
294
  currency: 'CNY',
@@ -129,6 +129,23 @@ const qwenChatModels: AIChatModelCard[] = [
129
129
  },
130
130
  type: 'chat',
131
131
  },
132
+ {
133
+ abilities: {
134
+ vision: true,
135
+ },
136
+ contextWindowTokens: 32_768,
137
+ description: 'Qwen-Omni 系列模型支持输入多种模态的数据,包括视频、音频、图片、文本,并输出音频与文本。',
138
+ displayName: 'Qwen2.5 Omni 7B',
139
+ id: 'qwen2.5-omni-7b',
140
+ maxOutput: 2048,
141
+ organization: 'Qwen',
142
+ // pricing: {
143
+ // currency: 'CNY',
144
+ // input: 0,
145
+ // output: 0,
146
+ // },
147
+ type: 'chat',
148
+ },
132
149
  {
133
150
  abilities: {
134
151
  vision: true,
@@ -137,7 +154,6 @@ const qwenChatModels: AIChatModelCard[] = [
137
154
  description:
138
155
  '通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。',
139
156
  displayName: 'Qwen VL Plus',
140
- enabled: true,
141
157
  id: 'qwen-vl-plus-latest',
142
158
  maxOutput: 2048,
143
159
  organization: 'Qwen',
@@ -70,6 +70,22 @@ const siliconcloudChatModels: AIChatModelCard[] = [
70
70
  },
71
71
  type: 'chat',
72
72
  },
73
+ {
74
+ abilities: {
75
+ functionCall: true,
76
+ },
77
+ contextWindowTokens: 65_536,
78
+ description:
79
+ 'DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。',
80
+ displayName: 'DeepSeek V3 1226 (Pro)',
81
+ id: 'Pro/deepseek-ai/DeepSeek-V3-1226', // 将于 2025 年 4 月 30 日废弃
82
+ pricing: {
83
+ currency: 'CNY',
84
+ input: 2,
85
+ output: 8,
86
+ },
87
+ type: 'chat',
88
+ },
73
89
  {
74
90
  abilities: {
75
91
  reasoning: true
@@ -505,7 +521,23 @@ const siliconcloudChatModels: AIChatModelCard[] = [
505
521
  abilities: {
506
522
  vision: true,
507
523
  },
508
- contextWindowTokens: 32_768,
524
+ contextWindowTokens: 131_072,
525
+ description:
526
+ 'Qwen2.5-VL-32B-Instruct 是通义千问团队推出的多模态大模型,是 Qwen2.5-VL 系列的一部分。该模型不仅精通识别常见物体,还能分析图像中的文本、图表、图标、图形和布局。它可作为视觉智能体,能够推理并动态操控工具,具备使用电脑和手机的能力。此外,这个模型可以精确定位图像中的对象,并为发票、表格等生成结构化输出。相比前代模型 Qwen2-VL,该版本在数学和问题解决能力方面通过强化学习得到了进一步提升,响应风格也更符合人类偏好。',
527
+ displayName: 'Qwen2.5 VL 32B Instruct',
528
+ id: 'Qwen/Qwen2.5-VL-32B-Instruct',
529
+ pricing: {
530
+ currency: 'CNY',
531
+ input: 1.89,
532
+ output: 1.89,
533
+ },
534
+ type: 'chat',
535
+ },
536
+ {
537
+ abilities: {
538
+ vision: true,
539
+ },
540
+ contextWindowTokens: 131_072,
509
541
  description:
510
542
  'Qwen2.5-VL 是 Qwen2.5 系列中的视觉语言模型。该模型在多方面有显著提升:具备更强的视觉理解能力,能够识别常见物体、分析文本、图表和布局;作为视觉代理能够推理并动态指导工具使用;支持理解超过 1 小时的长视频并捕捉关键事件;能够通过生成边界框或点准确定位图像中的物体;支持生成结构化输出,尤其适用于发票、表格等扫描数据。',
511
543
  displayName: 'Qwen2.5 VL 72B Instruct',
@@ -19,6 +19,23 @@ const tencentCloudChatModels: AIChatModelCard[] = [
19
19
  },
20
20
  type: 'chat',
21
21
  },
22
+ {
23
+ abilities: {
24
+ functionCall: true,
25
+ },
26
+ contextWindowTokens: 65_536,
27
+ description:
28
+ 'DeepSeek-V3-0324 为671B 参数 MoE 模型,在编程与技术能力、上下文理解与长文本处理等方面优势突出。',
29
+ displayName: 'DeepSeek-V3-0324',
30
+ enabled: true,
31
+ id: 'deepseek-v3-0324',
32
+ pricing: {
33
+ currency: 'CNY',
34
+ input: 2,
35
+ output: 8,
36
+ },
37
+ type: 'chat',
38
+ },
22
39
  {
23
40
  abilities: {
24
41
  functionCall: true,
@@ -1,6 +1,6 @@
1
1
  import { AIChatModelCard } from '@/types/aiModel';
2
2
 
3
- // ref: https://ai.google.dev/gemini-api/docs/models/gemini
3
+ // ref: https://cloud.google.com/vertex-ai/generative-ai/docs/learn/models
4
4
  const vertexaiChatModels: AIChatModelCard[] = [
5
5
  {
6
6
  abilities: {
@@ -79,23 +79,6 @@ const vertexaiChatModels: AIChatModelCard[] = [
79
79
  releasedAt: '2025-02-05',
80
80
  type: 'chat',
81
81
  },
82
- {
83
- abilities: {
84
- vision: true,
85
- },
86
- contextWindowTokens: 1_048_576 + 8192,
87
- description: '一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。',
88
- displayName: 'Gemini 2.0 Flash-Lite Preview 02-05',
89
- id: 'gemini-2.0-flash-lite-preview-02-05',
90
- maxOutput: 8192,
91
- pricing: {
92
- cachedInput: 0.018_75,
93
- input: 0.075,
94
- output: 0.3,
95
- },
96
- releasedAt: '2025-02-05',
97
- type: 'chat',
98
- },
99
82
  {
100
83
  abilities: {
101
84
  reasoning: true,
@@ -116,28 +99,11 @@ const vertexaiChatModels: AIChatModelCard[] = [
116
99
  releasedAt: '2025-01-21',
117
100
  type: 'chat',
118
101
  },
119
- {
120
- abilities: { functionCall: true, vision: true },
121
- contextWindowTokens: 1_000_000 + 8192,
122
- description:
123
- 'Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。',
124
- displayName: 'Gemini 1.5 Flash',
125
- enabled: true,
126
- id: 'gemini-1.5-flash',
127
- maxOutput: 8192,
128
- pricing: {
129
- cachedInput: 0.018_75,
130
- input: 0.075,
131
- output: 0.3,
132
- },
133
- type: 'chat',
134
- },
135
102
  {
136
103
  abilities: { functionCall: true, vision: true },
137
104
  contextWindowTokens: 1_000_000 + 8192,
138
105
  description: 'Gemini 1.5 Flash 002 是一款高效的多模态模型,支持广泛应用的扩展。',
139
106
  displayName: 'Gemini 1.5 Flash 002',
140
- enabled: true,
141
107
  id: 'gemini-1.5-flash-002',
142
108
  maxOutput: 8192,
143
109
  pricing: {
@@ -162,30 +128,12 @@ const vertexaiChatModels: AIChatModelCard[] = [
162
128
  },
163
129
  type: 'chat',
164
130
  },
165
- {
166
- abilities: { functionCall: true, vision: true },
167
- contextWindowTokens: 2_000_000 + 8192,
168
- description:
169
- 'Gemini 1.5 Pro 支持高达200万个tokens,是中型多模态模型的理想选择,适用于复杂任务的多方面支持。',
170
- displayName: 'Gemini 1.5 Pro',
171
- enabled: true,
172
- id: 'gemini-1.5-pro-latest',
173
- maxOutput: 8192,
174
- pricing: {
175
- cachedInput: 0.875,
176
- input: 3.5,
177
- output: 10.5,
178
- },
179
- releasedAt: '2024-02-15',
180
- type: 'chat',
181
- },
182
131
  {
183
132
  abilities: { functionCall: true, vision: true },
184
133
  contextWindowTokens: 2_000_000 + 8192,
185
134
  description:
186
135
  'Gemini 1.5 Pro 002 是最新的生产就绪模型,提供更高质量的输出,特别在数学、长上下文和视觉任务方面有显著提升。',
187
136
  displayName: 'Gemini 1.5 Pro 002',
188
- enabled: true,
189
137
  id: 'gemini-1.5-pro-002',
190
138
  maxOutput: 8192,
191
139
  pricing: {
@@ -73,7 +73,7 @@ const doubaoChatModels: AIChatModelCard[] = [
73
73
  functionCall: true,
74
74
  },
75
75
  config: {
76
- deploymentName: 'deepseek-v3-241226',
76
+ deploymentName: 'deepseek-v3-250324',
77
77
  },
78
78
  contextWindowTokens: 65_536,
79
79
  description: