@lobehub/chat 1.49.14 → 1.49.15

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.49.15](https://github.com/lobehub/lobe-chat/compare/v1.49.14...v1.49.15)
6
+
7
+ <sup>Released on **2025-02-03**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update Fireworks check model and fix check error.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update Fireworks check model and fix check error, closes [#5680](https://github.com/lobehub/lobe-chat/issues/5680) ([64ea539](https://github.com/lobehub/lobe-chat/commit/64ea539))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.49.14](https://github.com/lobehub/lobe-chat/compare/v1.49.13...v1.49.14)
6
31
 
7
32
  <sup>Released on **2025-02-03**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update Fireworks check model and fix check error."
6
+ ]
7
+ },
8
+ "date": "2025-02-03",
9
+ "version": "1.49.15"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "fixes": [
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.49.14",
3
+ "version": "1.49.15",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -1,56 +1,30 @@
1
1
  import { AIChatModelCard } from '@/types/aiModel';
2
2
 
3
3
  const fireworksaiChatModels: AIChatModelCard[] = [
4
- {
5
- abilities: {
6
- functionCall: true,
7
- },
8
- contextWindowTokens: 8192,
9
- description:
10
- 'Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函数调用模型,基于 Llama-3 开发,并通过大量优化,特别适用于函数调用、对话及指令跟随等场景。',
11
- displayName: 'Firefunction V2',
12
- enabled: true,
13
- id: 'accounts/fireworks/models/firefunction-v2',
14
- type: 'chat',
15
- },
16
- {
17
- abilities: {
18
- functionCall: true,
19
- },
20
- contextWindowTokens: 32_768,
21
- description: 'Fireworks 开源函数调用模型,提供卓越的指令执行能力和开放可定制的特性。',
22
- displayName: 'Firefunction V1',
23
- id: 'accounts/fireworks/models/firefunction-v1',
24
- type: 'chat',
25
- },
26
- {
27
- abilities: {
28
- vision: true,
29
- },
30
- contextWindowTokens: 4096,
31
- description:
32
- 'fireworks-ai/FireLLaVA-13b 是一款视觉语言模型,可以同时接收图像和文本输入,经过高质量数据训练,适合多模态任务。',
33
- displayName: 'FireLLaVA-13B',
34
- enabled: true,
35
- id: 'accounts/fireworks/models/firellava-13b',
36
- type: 'chat',
37
- },
38
4
  {
39
5
  contextWindowTokens: 131_072,
40
6
  description:
41
- 'Llama 3.2 1B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括检索和摘要。',
42
- displayName: 'Llama 3.2 1B Instruct',
7
+ 'Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。',
8
+ displayName: 'Llama 3.3 70B Instruct',
43
9
  enabled: true,
44
- id: 'accounts/fireworks/models/llama-v3p2-1b-instruct',
10
+ id: 'accounts/fireworks/models/llama-v3p3-70b-instruct',
11
+ pricing: {
12
+ input: 0.9,
13
+ output: 0.9,
14
+ },
45
15
  type: 'chat',
46
16
  },
47
17
  {
48
18
  contextWindowTokens: 131_072,
49
19
  description:
50
- 'Llama 3.2 3B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括查询和提示重写以及写作辅助。',
20
+ 'Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。',
51
21
  displayName: 'Llama 3.2 3B Instruct',
52
22
  enabled: true,
53
23
  id: 'accounts/fireworks/models/llama-v3p2-3b-instruct',
24
+ pricing: {
25
+ input: 0.1,
26
+ output: 0.1,
27
+ },
54
28
  type: 'chat',
55
29
  },
56
30
  {
@@ -59,10 +33,14 @@ const fireworksaiChatModels: AIChatModelCard[] = [
59
33
  },
60
34
  contextWindowTokens: 131_072,
61
35
  description:
62
- 'Meta的11B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。',
36
+ 'Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。',
63
37
  displayName: 'Llama 3.2 11B Vision Instruct',
64
38
  enabled: true,
65
39
  id: 'accounts/fireworks/models/llama-v3p2-11b-vision-instruct',
40
+ pricing: {
41
+ input: 0.2,
42
+ output: 0.2,
43
+ },
66
44
  type: 'chat',
67
45
  },
68
46
  {
@@ -71,91 +49,132 @@ const fireworksaiChatModels: AIChatModelCard[] = [
71
49
  },
72
50
  contextWindowTokens: 131_072,
73
51
  description:
74
- 'Meta的90B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。',
52
+ 'Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。',
75
53
  displayName: 'Llama 3.2 90B Vision Instruct',
76
54
  enabled: true,
77
55
  id: 'accounts/fireworks/models/llama-v3p2-90b-vision-instruct',
56
+ pricing: {
57
+ input: 0.9,
58
+ output: 0.9,
59
+ },
78
60
  type: 'chat',
79
61
  },
80
62
  {
81
63
  contextWindowTokens: 131_072,
82
64
  description:
83
- 'Llama 3.1 8B 指令模型,专为多语言对话优化,能够在常见行业基准上超越多数开源及闭源模型。',
65
+ 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。',
84
66
  displayName: 'Llama 3.1 8B Instruct',
85
- enabled: true,
86
67
  id: 'accounts/fireworks/models/llama-v3p1-8b-instruct',
68
+ pricing: {
69
+ input: 0.2,
70
+ output: 0.2,
71
+ },
87
72
  type: 'chat',
88
73
  },
89
74
  {
75
+ abilities: {
76
+ functionCall: true,
77
+ },
90
78
  contextWindowTokens: 131_072,
91
79
  description:
92
- 'Llama 3.1 70B 指令模型,提供卓越的自然语言理解和生成能力,是对话及分析任务的理想选择。',
80
+ 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。',
93
81
  displayName: 'Llama 3.1 70B Instruct',
94
- enabled: true,
95
82
  id: 'accounts/fireworks/models/llama-v3p1-70b-instruct',
83
+ pricing: {
84
+ input: 0.9,
85
+ output: 0.9,
86
+ },
96
87
  type: 'chat',
97
88
  },
98
89
  {
90
+ abilities: {
91
+ functionCall: true,
92
+ },
99
93
  contextWindowTokens: 131_072,
100
94
  description:
101
- 'Llama 3.1 405B 指令模型,具备超大规模参数,适合复杂任务和高负载场景下的指令跟随。',
95
+ 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。',
102
96
  displayName: 'Llama 3.1 405B Instruct',
103
- enabled: true,
104
97
  id: 'accounts/fireworks/models/llama-v3p1-405b-instruct',
98
+ pricing: {
99
+ input: 3,
100
+ output: 3,
101
+ },
105
102
  type: 'chat',
106
103
  },
107
104
  {
108
105
  contextWindowTokens: 8192,
109
- description: 'Llama 3 8B 指令模型,优化用于对话及多语言任务,表现卓越且高效。',
106
+ description:
107
+ 'Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。',
110
108
  displayName: 'Llama 3 8B Instruct',
111
109
  id: 'accounts/fireworks/models/llama-v3-8b-instruct',
110
+ pricing: {
111
+ input: 0.2,
112
+ output: 0.2,
113
+ },
112
114
  type: 'chat',
113
115
  },
114
116
  {
115
117
  contextWindowTokens: 8192,
116
- description: 'Llama 3 70B 指令模型,专为多语言对话和自然语言理解优化,性能优于多数竞争模型。',
118
+ description:
119
+ 'Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。',
117
120
  displayName: 'Llama 3 70B Instruct',
118
121
  id: 'accounts/fireworks/models/llama-v3-70b-instruct',
122
+ pricing: {
123
+ input: 0.9,
124
+ output: 0.9,
125
+ },
119
126
  type: 'chat',
120
127
  },
121
128
  {
122
129
  contextWindowTokens: 8192,
123
130
  description:
124
- 'Llama 3 8B 指令模型(HF 版本),与官方实现结果一致,具备高度一致性和跨平台兼容性。',
131
+ 'Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。',
125
132
  displayName: 'Llama 3 8B Instruct (HF version)',
126
133
  id: 'accounts/fireworks/models/llama-v3-8b-instruct-hf',
134
+ pricing: {
135
+ input: 0.2,
136
+ output: 0.2,
137
+ },
127
138
  type: 'chat',
128
139
  },
129
140
  {
130
- contextWindowTokens: 8192,
141
+ contextWindowTokens: 32_768,
131
142
  description:
132
- 'Llama 3 70B 指令模型(HF 版本),与官方实现结果保持一致,适合高质量的指令跟随任务。',
133
- displayName: 'Llama 3 70B Instruct (HF version)',
134
- id: 'accounts/fireworks/models/llama-v3-70b-instruct-hf',
143
+ '24B 参数模型,具备与更大型模型相当的最先进能力。',
144
+ displayName: 'Mistral Small 3 Instruct',
145
+ enabled: true,
146
+ id: 'accounts/fireworks/models/mistral-small-24b-instruct-2501',
147
+ pricing: {
148
+ input: 0.9,
149
+ output: 0.9,
150
+ },
135
151
  type: 'chat',
136
152
  },
137
153
  {
138
154
  contextWindowTokens: 32_768,
139
- description: 'Mixtral MoE 8x7B 指令模型,多专家架构提供高效的指令跟随及执行。',
155
+ description:
156
+ 'Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。',
140
157
  displayName: 'Mixtral MoE 8x7B Instruct',
141
- enabled: true,
142
158
  id: 'accounts/fireworks/models/mixtral-8x7b-instruct',
159
+ pricing: {
160
+ input: 0.5,
161
+ output: 0.5,
162
+ },
143
163
  type: 'chat',
144
164
  },
145
165
  {
166
+ abilities: {
167
+ functionCall: true,
168
+ },
146
169
  contextWindowTokens: 65_536,
147
170
  description:
148
- 'Mixtral MoE 8x22B 指令模型,大规模参数和多专家架构,全方位支持复杂任务的高效处理。',
171
+ 'Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。',
149
172
  displayName: 'Mixtral MoE 8x22B Instruct',
150
- enabled: true,
151
173
  id: 'accounts/fireworks/models/mixtral-8x22b-instruct',
152
- type: 'chat',
153
- },
154
- {
155
- contextWindowTokens: 32_768,
156
- description: 'Mixtral MoE 8x7B 指令模型(HF 版本),性能与官方实现一致,适合多种高效任务场景。',
157
- displayName: 'Mixtral MoE 8x7B Instruct (HF version)',
158
- id: 'accounts/fireworks/models/mixtral-8x7b-instruct-hf',
174
+ pricing: {
175
+ input: 1.2,
176
+ output: 1.2,
177
+ },
159
178
  type: 'chat',
160
179
  },
161
180
  {
@@ -164,65 +183,123 @@ const fireworksaiChatModels: AIChatModelCard[] = [
164
183
  },
165
184
  contextWindowTokens: 32_064,
166
185
  description:
167
- 'Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,它基于包括合成数据和经过筛选的公开网站在内的数据集构建,专注于非常高质量、推理密集型的数据,这些数据既包括文本也包括视觉。该模型属于 Phi-3 模型系列,其多模态版本支持 128K 的上下文长度(以标记为单位)。该模型经过严格的增强过程,结合了监督微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。',
186
+ 'Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。',
168
187
  displayName: 'Phi 3.5 Vision Instruct',
169
188
  enabled: true,
170
189
  id: 'accounts/fireworks/models/phi-3-vision-128k-instruct',
190
+ pricing: {
191
+ input: 0.2,
192
+ output: 0.2,
193
+ },
171
194
  type: 'chat',
172
195
  },
173
196
  {
174
197
  contextWindowTokens: 32_768,
175
- description: 'QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。',
176
- displayName: 'QwQ 32B Preview',
198
+ description:
199
+ 'MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。',
200
+ displayName: 'MythoMax L2 13b',
201
+ id: 'accounts/fireworks/models/mythomax-l2-13b',
202
+ pricing: {
203
+ input: 0.2,
204
+ output: 0.2,
205
+ },
206
+ type: 'chat',
207
+ },
208
+ {
209
+ contextWindowTokens: 131_072,
210
+ description:
211
+ 'Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。',
212
+ displayName: 'Deepseek V3',
177
213
  enabled: true,
178
- id: 'accounts/fireworks/models/qwen-qwq-32b-preview',
214
+ id: 'accounts/fireworks/models/deepseek-v3',
215
+ pricing: {
216
+ input: 0.9,
217
+ output: 0.9,
218
+ },
179
219
  type: 'chat',
180
220
  },
181
221
  {
182
- contextWindowTokens: 32_768,
222
+ abilities: {
223
+ reasoning: true,
224
+ },
225
+ contextWindowTokens: 163_840,
183
226
  description:
184
- 'Qwen2.5 是由阿里云 Qwen 团队开发的一系列仅包含解码器的语言模型。这些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,并且有基础版(base)和指令版(instruct)两种变体。',
185
- displayName: 'Qwen2.5 72B Instruct',
227
+ 'DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。',
228
+ displayName: 'Deepseek R1',
186
229
  enabled: true,
187
- id: 'accounts/fireworks/models/qwen2p5-72b-instruct',
230
+ id: 'accounts/fireworks/models/deepseek-r1',
231
+ pricing: {
232
+ input: 8,
233
+ output: 8,
234
+ },
188
235
  type: 'chat',
189
236
  },
190
237
  {
191
238
  contextWindowTokens: 32_768,
192
239
  description:
193
- 'Qwen2.5 Coder 32B Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础',
194
- displayName: 'Qwen2.5 Coder 32B Instruct',
195
- enabled: false,
196
- id: 'accounts/fireworks/models/qwen2p5-coder-32b-instruct',
240
+ 'Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。',
241
+ displayName: 'Qwen Qwq 32b Preview',
242
+ enabled: true,
243
+ id: 'accounts/fireworks/models/qwen-qwq-32b-preview',
244
+ pricing: {
245
+ input: 0.9,
246
+ output: 0.9,
247
+ },
197
248
  type: 'chat',
198
249
  },
199
250
  {
200
251
  contextWindowTokens: 32_768,
201
- description: 'Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。',
202
- displayName: 'Yi-Large',
252
+ description:
253
+ 'Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。',
254
+ displayName: 'Qwen2.5 72B Instruct',
203
255
  enabled: true,
204
- id: 'accounts/yi-01-ai/models/yi-large',
256
+ id: 'accounts/fireworks/models/qwen2p5-72b-instruct',
257
+ pricing: {
258
+ input: 0.9,
259
+ output: 0.9,
260
+ },
205
261
  type: 'chat',
206
262
  },
207
263
  {
208
- contextWindowTokens: 8192,
209
- description: 'StarCoder 7B 模型,针对80多种编程语言训练,拥有出色的编程填充能力和语境理解。',
210
- displayName: 'StarCoder 7B',
211
- id: 'accounts/fireworks/models/starcoder-7b',
264
+ abilities: {
265
+ vision: true,
266
+ },
267
+ contextWindowTokens: 32_768,
268
+ description:
269
+ 'Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。',
270
+ displayName: 'Qwen2 VL 72B Instruct',
271
+ enabled: true,
272
+ id: 'accounts/fireworks/models/qwen2-vl-72b-instruct',
273
+ pricing: {
274
+ input: 0.9,
275
+ output: 0.9,
276
+ },
212
277
  type: 'chat',
213
278
  },
214
279
  {
215
- contextWindowTokens: 8192,
216
- description: 'StarCoder 15.5B 模型,支持高级编程任务,多语言能力增强,适合复杂代码生成和理解。',
217
- displayName: 'StarCoder 15.5B',
218
- id: 'accounts/fireworks/models/starcoder-16b',
280
+ contextWindowTokens: 32_768,
281
+ description:
282
+ 'Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。',
283
+ displayName: 'Qwen2.5-Coder-32B-Instruct',
284
+ enabled: true,
285
+ id: 'accounts/fireworks/models/qwen2p5-coder-32b-instruct',
286
+ pricing: {
287
+ input: 0.9,
288
+ output: 0.9,
289
+ },
219
290
  type: 'chat',
220
291
  },
221
292
  {
222
- contextWindowTokens: 4096,
223
- description: 'MythoMax L2 13B 模型,结合新颖的合并技术,擅长叙事和角色扮演。',
224
- displayName: 'MythoMax L2 13b',
225
- id: 'accounts/fireworks/models/mythomax-l2-13b',
293
+ contextWindowTokens: 32_768,
294
+ description:
295
+ 'Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。',
296
+ displayName: 'Yi-Large',
297
+ enabled: true,
298
+ id: 'accounts/yi-01-ai/models/yi-large',
299
+ pricing: {
300
+ input: 3,
301
+ output: 3,
302
+ },
226
303
  type: 'chat',
227
304
  },
228
305
  ];
@@ -4,214 +4,270 @@ import { ModelProviderCard } from '@/types/llm';
4
4
  // ref: https://fireworks.ai/pricing
5
5
  const FireworksAI: ModelProviderCard = {
6
6
  chatModels: [
7
- {
8
- contextWindowTokens: 8192,
9
- description:
10
- 'Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函数调用模型,基于 Llama-3 开发,并通过大量优化,特别适用于函数调用、对话及指令跟随等场景。',
11
- displayName: 'Firefunction V2',
12
- enabled: true,
13
- functionCall: true,
14
- id: 'accounts/fireworks/models/firefunction-v2',
15
- },
16
- {
17
- contextWindowTokens: 32_768,
18
- description: 'Fireworks 开源函数调用模型,提供卓越的指令执行能力和开放可定制的特性。',
19
- displayName: 'Firefunction V1',
20
- functionCall: true,
21
- id: 'accounts/fireworks/models/firefunction-v1',
22
- },
23
- {
24
- contextWindowTokens: 4096,
25
- description:
26
- 'fireworks-ai/FireLLaVA-13b 是一款视觉语言模型,可以同时接收图像和文本输入,经过高质量数据训练,适合多模态任务。',
27
- displayName: 'FireLLaVA-13B',
28
- enabled: true,
29
- functionCall: false,
30
- id: 'accounts/fireworks/models/firellava-13b',
31
- vision: true,
32
- },
33
7
  {
34
8
  contextWindowTokens: 131_072,
35
9
  description:
36
- 'Llama 3.2 1B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括检索和摘要。',
37
- displayName: 'Llama 3.2 1B Instruct',
10
+ 'Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。',
11
+ displayName: 'Llama 3.3 70B Instruct',
38
12
  enabled: true,
39
- id: 'accounts/fireworks/models/llama-v3p2-1b-instruct',
13
+ id: 'accounts/fireworks/models/llama-v3p3-70b-instruct',
14
+ pricing: {
15
+ input: 0.9,
16
+ output: 0.9,
17
+ },
40
18
  },
41
19
  {
42
20
  contextWindowTokens: 131_072,
43
21
  description:
44
- 'Llama 3.2 3B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括查询和提示重写以及写作辅助。',
22
+ 'Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。',
45
23
  displayName: 'Llama 3.2 3B Instruct',
46
24
  enabled: true,
47
25
  id: 'accounts/fireworks/models/llama-v3p2-3b-instruct',
26
+ pricing: {
27
+ input: 0.1,
28
+ output: 0.1,
29
+ },
48
30
  },
49
31
  {
50
32
  contextWindowTokens: 131_072,
51
33
  description:
52
- 'Meta的11B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。',
34
+ 'Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。',
53
35
  displayName: 'Llama 3.2 11B Vision Instruct',
54
36
  enabled: true,
55
37
  id: 'accounts/fireworks/models/llama-v3p2-11b-vision-instruct',
38
+ pricing: {
39
+ input: 0.2,
40
+ output: 0.2,
41
+ },
56
42
  vision: true,
57
43
  },
58
44
  {
59
45
  contextWindowTokens: 131_072,
60
46
  description:
61
- 'Meta的90B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。',
47
+ 'Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。',
62
48
  displayName: 'Llama 3.2 90B Vision Instruct',
63
49
  enabled: true,
64
50
  id: 'accounts/fireworks/models/llama-v3p2-90b-vision-instruct',
51
+ pricing: {
52
+ input: 0.9,
53
+ output: 0.9,
54
+ },
65
55
  vision: true,
66
56
  },
67
57
  {
68
58
  contextWindowTokens: 131_072,
69
59
  description:
70
- 'Llama 3.1 8B 指令模型,专为多语言对话优化,能够在常见行业基准上超越多数开源及闭源模型。',
60
+ 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。',
71
61
  displayName: 'Llama 3.1 8B Instruct',
72
- enabled: true,
73
- functionCall: false,
74
62
  id: 'accounts/fireworks/models/llama-v3p1-8b-instruct',
63
+ pricing: {
64
+ input: 0.2,
65
+ output: 0.2,
66
+ },
75
67
  },
76
68
  {
77
69
  contextWindowTokens: 131_072,
78
70
  description:
79
- 'Llama 3.1 70B 指令模型,提供卓越的自然语言理解和生成能力,是对话及分析任务的理想选择。',
71
+ 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。',
80
72
  displayName: 'Llama 3.1 70B Instruct',
81
- enabled: true,
82
- functionCall: false,
73
+ functionCall: true,
83
74
  id: 'accounts/fireworks/models/llama-v3p1-70b-instruct',
75
+ pricing: {
76
+ input: 0.9,
77
+ output: 0.9,
78
+ },
84
79
  },
85
80
  {
86
81
  contextWindowTokens: 131_072,
87
82
  description:
88
- 'Llama 3.1 405B 指令模型,具备超大规模参数,适合复杂任务和高负载场景下的指令跟随。',
83
+ 'Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。',
89
84
  displayName: 'Llama 3.1 405B Instruct',
90
- enabled: true,
91
- functionCall: false,
85
+ functionCall: true,
92
86
  id: 'accounts/fireworks/models/llama-v3p1-405b-instruct',
87
+ pricing: {
88
+ input: 3,
89
+ output: 3,
90
+ },
93
91
  },
94
92
  {
95
93
  contextWindowTokens: 8192,
96
- description: 'Llama 3 8B 指令模型,优化用于对话及多语言任务,表现卓越且高效。',
94
+ description:
95
+ 'Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。',
97
96
  displayName: 'Llama 3 8B Instruct',
98
- functionCall: false,
99
97
  id: 'accounts/fireworks/models/llama-v3-8b-instruct',
98
+ pricing: {
99
+ input: 0.2,
100
+ output: 0.2,
101
+ },
100
102
  },
101
103
  {
102
104
  contextWindowTokens: 8192,
103
- description: 'Llama 3 70B 指令模型,专为多语言对话和自然语言理解优化,性能优于多数竞争模型。',
105
+ description:
106
+ 'Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。',
104
107
  displayName: 'Llama 3 70B Instruct',
105
- functionCall: false,
106
108
  id: 'accounts/fireworks/models/llama-v3-70b-instruct',
109
+ pricing: {
110
+ input: 0.9,
111
+ output: 0.9,
112
+ },
107
113
  },
108
114
  {
109
115
  contextWindowTokens: 8192,
110
116
  description:
111
- 'Llama 3 8B 指令模型(HF 版本),与官方实现结果一致,具备高度一致性和跨平台兼容性。',
117
+ 'Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。',
112
118
  displayName: 'Llama 3 8B Instruct (HF version)',
113
- functionCall: false,
114
119
  id: 'accounts/fireworks/models/llama-v3-8b-instruct-hf',
120
+ pricing: {
121
+ input: 0.2,
122
+ output: 0.2,
123
+ },
115
124
  },
116
125
  {
117
- contextWindowTokens: 8192,
126
+ contextWindowTokens: 32_768,
118
127
  description:
119
- 'Llama 3 70B 指令模型(HF 版本),与官方实现结果保持一致,适合高质量的指令跟随任务。',
120
- displayName: 'Llama 3 70B Instruct (HF version)',
121
- functionCall: false,
122
- id: 'accounts/fireworks/models/llama-v3-70b-instruct-hf',
128
+ '24B 参数模型,具备与更大型模型相当的最先进能力。',
129
+ displayName: 'Mistral Small 3 Instruct',
130
+ enabled: true,
131
+ id: 'accounts/fireworks/models/mistral-small-24b-instruct-2501',
132
+ pricing: {
133
+ input: 0.9,
134
+ output: 0.9,
135
+ },
123
136
  },
124
137
  {
125
138
  contextWindowTokens: 32_768,
126
- description: 'Mixtral MoE 8x7B 指令模型,多专家架构提供高效的指令跟随及执行。',
139
+ description:
140
+ 'Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。',
127
141
  displayName: 'Mixtral MoE 8x7B Instruct',
128
- enabled: true,
129
- functionCall: false,
130
142
  id: 'accounts/fireworks/models/mixtral-8x7b-instruct',
143
+ pricing: {
144
+ input: 0.5,
145
+ output: 0.5,
146
+ },
131
147
  },
132
148
  {
133
149
  contextWindowTokens: 65_536,
134
150
  description:
135
- 'Mixtral MoE 8x22B 指令模型,大规模参数和多专家架构,全方位支持复杂任务的高效处理。',
151
+ 'Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。',
136
152
  displayName: 'Mixtral MoE 8x22B Instruct',
137
- enabled: true,
138
- functionCall: false,
153
+ functionCall: true,
139
154
  id: 'accounts/fireworks/models/mixtral-8x22b-instruct',
140
- },
141
- {
142
- contextWindowTokens: 32_768,
143
- description:
144
- 'Mixtral MoE 8x7B 指令模型(HF 版本),性能与官方实现一致,适合多种高效任务场景。',
145
- displayName: 'Mixtral MoE 8x7B Instruct (HF version)',
146
- functionCall: false,
147
- id: 'accounts/fireworks/models/mixtral-8x7b-instruct-hf',
155
+ pricing: {
156
+ input: 1.2,
157
+ output: 1.2,
158
+ },
148
159
  },
149
160
  {
150
161
  contextWindowTokens: 32_064,
151
162
  description:
152
- 'Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,它基于包括合成数据和经过筛选的公开网站在内的数据集构建,专注于非常高质量、推理密集型的数据,这些数据既包括文本也包括视觉。该模型属于 Phi-3 模型系列,其多模态版本支持 128K 的上下文长度(以标记为单位)。该模型经过严格的增强过程,结合了监督微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。',
163
+ 'Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。',
153
164
  displayName: 'Phi 3.5 Vision Instruct',
154
165
  enabled: true,
155
- functionCall: false,
156
166
  id: 'accounts/fireworks/models/phi-3-vision-128k-instruct',
167
+ pricing: {
168
+ input: 0.2,
169
+ output: 0.2,
170
+ },
157
171
  vision: true,
158
172
  },
159
173
  {
160
174
  contextWindowTokens: 32_768,
161
- description: 'QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。',
162
- displayName: 'QwQ 32B Preview',
175
+ description:
176
+ 'MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。',
177
+ displayName: 'MythoMax L2 13b',
178
+ id: 'accounts/fireworks/models/mythomax-l2-13b',
179
+ pricing: {
180
+ input: 0.2,
181
+ output: 0.2,
182
+ },
183
+ },
184
+ {
185
+ contextWindowTokens: 131_072,
186
+ description:
187
+ 'Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。',
188
+ displayName: 'Deepseek V3',
189
+ enabled: true,
190
+ id: 'accounts/fireworks/models/deepseek-v3',
191
+ pricing: {
192
+ input: 0.9,
193
+ output: 0.9,
194
+ },
195
+ },
196
+ {
197
+ contextWindowTokens: 163_840,
198
+ description:
199
+ 'DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。',
200
+ displayName: 'Deepseek R1',
201
+ enabled: true,
202
+ id: 'accounts/fireworks/models/deepseek-r1',
203
+ pricing: {
204
+ input: 8,
205
+ output: 8,
206
+ },
207
+ },
208
+ {
209
+ contextWindowTokens: 32_768,
210
+ description:
211
+ 'Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。',
212
+ displayName: 'Qwen Qwq 32b Preview',
163
213
  enabled: true,
164
214
  id: 'accounts/fireworks/models/qwen-qwq-32b-preview',
215
+ pricing: {
216
+ input: 0.9,
217
+ output: 0.9,
218
+ },
165
219
  },
166
220
  {
167
221
  contextWindowTokens: 32_768,
168
222
  description:
169
- 'Qwen2.5 是由阿里云 Qwen 团队开发的一系列仅包含解码器的语言模型。这些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,并且有基础版(base)和指令版(instruct)两种变体。',
223
+ 'Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。',
170
224
  displayName: 'Qwen2.5 72B Instruct',
171
225
  enabled: true,
172
- functionCall: false,
173
226
  id: 'accounts/fireworks/models/qwen2p5-72b-instruct',
227
+ pricing: {
228
+ input: 0.9,
229
+ output: 0.9,
230
+ },
174
231
  },
175
232
  {
176
233
  contextWindowTokens: 32_768,
177
234
  description:
178
- 'Qwen2.5 Coder 32B Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础',
179
- displayName: 'Qwen2.5 Coder 32B Instruct',
180
- enabled: false,
181
- id: 'accounts/fireworks/models/qwen2p5-coder-32b-instruct',
235
+ 'Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。',
236
+ displayName: 'Qwen2 VL 72B Instruct',
237
+ enabled: true,
238
+ id: 'accounts/fireworks/models/qwen2-vl-72b-instruct',
239
+ pricing: {
240
+ input: 0.9,
241
+ output: 0.9,
242
+ },
243
+ vision: true,
182
244
  },
183
245
  {
184
246
  contextWindowTokens: 32_768,
185
- description: 'Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。',
186
- displayName: 'Yi-Large',
247
+ description:
248
+ 'Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。',
249
+ displayName: 'Qwen2.5-Coder-32B-Instruct',
187
250
  enabled: true,
188
- functionCall: false,
189
- id: 'accounts/yi-01-ai/models/yi-large',
190
- },
191
- {
192
- contextWindowTokens: 8192,
193
- description: 'StarCoder 7B 模型,针对80多种编程语言训练,拥有出色的编程填充能力和语境理解。',
194
- displayName: 'StarCoder 7B',
195
- functionCall: false,
196
- id: 'accounts/fireworks/models/starcoder-7b',
251
+ id: 'accounts/fireworks/models/qwen2p5-coder-32b-instruct',
252
+ pricing: {
253
+ input: 0.9,
254
+ output: 0.9,
255
+ },
197
256
  },
198
257
  {
199
- contextWindowTokens: 8192,
258
+ contextWindowTokens: 32_768,
200
259
  description:
201
- 'StarCoder 15.5B 模型,支持高级编程任务,多语言能力增强,适合复杂代码生成和理解。',
202
- displayName: 'StarCoder 15.5B',
203
- functionCall: false,
204
- id: 'accounts/fireworks/models/starcoder-16b',
205
- },
206
- {
207
- contextWindowTokens: 4096,
208
- description: 'MythoMax L2 13B 模型,结合新颖的合并技术,擅长叙事和角色扮演。',
209
- displayName: 'MythoMax L2 13b',
210
- functionCall: false,
211
- id: 'accounts/fireworks/models/mythomax-l2-13b',
260
+ 'Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。',
261
+ displayName: 'Yi-Large',
262
+ enabled: true,
263
+ id: 'accounts/yi-01-ai/models/yi-large',
264
+ pricing: {
265
+ input: 3,
266
+ output: 3,
267
+ },
212
268
  },
213
269
  ],
214
- checkModel: 'accounts/fireworks/models/firefunction-v2',
270
+ checkModel: 'accounts/fireworks/models/llama-v3p2-3b-instruct',
215
271
  description:
216
272
  'Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。',
217
273
  id: 'fireworksai',