@lobehub/chat 1.16.8 → 1.16.9
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of @lobehub/chat might be problematic. Click here for more details.
- package/CHANGELOG.md +25 -0
- package/package.json +1 -1
- package/src/config/modelProviders/ai360.ts +11 -0
- package/src/config/modelProviders/anthropic.ts +27 -18
- package/src/config/modelProviders/azure.ts +12 -3
- package/src/config/modelProviders/baichuan.ts +3 -1
- package/src/config/modelProviders/bedrock.ts +20 -18
- package/src/config/modelProviders/deepseek.ts +3 -1
- package/src/config/modelProviders/fireworksai.ts +33 -5
- package/src/config/modelProviders/google.ts +16 -13
- package/src/config/modelProviders/groq.ts +19 -8
- package/src/config/modelProviders/minimax.ts +8 -6
- package/src/config/modelProviders/mistral.ts +19 -3
- package/src/config/modelProviders/moonshot.ts +11 -1
- package/src/config/modelProviders/novita.ts +24 -0
- package/src/config/modelProviders/ollama.ts +58 -1
- package/src/config/modelProviders/openai.ts +52 -18
- package/src/config/modelProviders/openrouter.ts +21 -1
- package/src/config/modelProviders/perplexity.ts +19 -3
- package/src/config/modelProviders/qwen.ts +11 -8
- package/src/config/modelProviders/siliconcloud.ts +34 -1
- package/src/config/modelProviders/spark.ts +16 -7
- package/src/config/modelProviders/stepfun.ts +13 -1
- package/src/config/modelProviders/taichu.ts +7 -2
- package/src/config/modelProviders/togetherai.ts +38 -2
- package/src/config/modelProviders/upstage.ts +11 -4
- package/src/config/modelProviders/zeroone.ts +5 -1
- package/src/config/modelProviders/zhipu.ts +20 -18
- package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +13 -6
- package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
- package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +24 -4
- package/src/server/routers/edge/config/index.test.ts +3 -11
- package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
- package/src/store/user/slices/modelList/action.test.ts +3 -7
- package/src/types/llm.ts +1 -0
- package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
- package/src/utils/parseModels.test.ts +1 -28
@@ -1,55 +1,71 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://docs.perplexity.ai/docs/model-cards
|
3
|
+
// ref :https://docs.perplexity.ai/docs/model-cards
|
4
4
|
const Perplexity: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
+
description:
|
8
|
+
'Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。',
|
7
9
|
displayName: 'Llama 3.1 Sonar Small Online',
|
8
10
|
enabled: true,
|
9
11
|
id: 'llama-3.1-sonar-small-128k-online',
|
10
12
|
tokens: 128_000,
|
11
13
|
},
|
12
14
|
{
|
15
|
+
description:
|
16
|
+
'Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。',
|
13
17
|
displayName: 'Llama 3.1 Sonar Large Online',
|
14
18
|
enabled: true,
|
15
19
|
id: 'llama-3.1-sonar-large-128k-online',
|
16
20
|
tokens: 128_000,
|
17
21
|
},
|
18
22
|
{
|
23
|
+
description:
|
24
|
+
'Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。',
|
19
25
|
displayName: 'Llama 3.1 Sonar Huge Online',
|
20
26
|
enabled: true,
|
21
27
|
id: 'llama-3.1-sonar-huge-128k-online',
|
22
28
|
tokens: 128_000,
|
23
29
|
},
|
24
30
|
{
|
31
|
+
description:
|
32
|
+
'Llama 3.1 Sonar Small Chat 模型,具备8B参数,专为离线聊天设计,支持约127,000个标记的上下文长度。',
|
25
33
|
displayName: 'Llama 3.1 Sonar Small Chat',
|
26
34
|
enabled: true,
|
27
35
|
id: 'llama-3.1-sonar-small-128k-chat',
|
28
36
|
tokens: 128_000,
|
29
37
|
},
|
30
38
|
{
|
39
|
+
description:
|
40
|
+
'Llama 3.1 Sonar Large Chat 模型,具备70B参数,支持约127,000个标记的上下文长度,适合于复杂的离线聊天任务。',
|
31
41
|
displayName: 'Llama 3.1 Sonar Large Chat',
|
32
42
|
enabled: true,
|
33
43
|
id: 'llama-3.1-sonar-large-128k-chat',
|
34
44
|
tokens: 128_000,
|
35
45
|
},
|
36
46
|
{
|
37
|
-
|
47
|
+
description:
|
48
|
+
'Llama 3.1 8B Instruct 模型,具备8B参数,支持画面指示任务的高效执行,提供优质的文本生成能力。',
|
38
49
|
id: 'llama-3.1-8b-instruct',
|
39
50
|
tokens: 128_000,
|
40
51
|
},
|
41
52
|
{
|
42
|
-
|
53
|
+
description:
|
54
|
+
'Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。',
|
43
55
|
id: 'llama-3.1-70b-instruct',
|
44
56
|
tokens: 128_000,
|
45
57
|
},
|
46
58
|
],
|
47
59
|
checkModel: 'llama-3.1-8b-instruct',
|
60
|
+
description:
|
61
|
+
'Perplexity 是一家领先的对话生成模型提供商,提供多种先进的Llama 3.1模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。',
|
48
62
|
id: 'perplexity',
|
63
|
+
modelsUrl: 'https://docs.perplexity.ai/guides/model-cards',
|
49
64
|
name: 'Perplexity',
|
50
65
|
proxyUrl: {
|
51
66
|
placeholder: 'https://api.perplexity.ai',
|
52
67
|
},
|
68
|
+
url: 'https://www.perplexity.ai',
|
53
69
|
};
|
54
70
|
|
55
71
|
export default Perplexity;
|
@@ -1,10 +1,11 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://help.aliyun.com/zh/dashscope/developer-reference/api-details
|
3
|
+
// ref :https://help.aliyun.com/zh/dashscope/developer-reference/api-details
|
4
4
|
const Qwen: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
-
description:
|
7
|
+
description:
|
8
|
+
'通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。',
|
8
9
|
displayName: 'Qwen Long',
|
9
10
|
enabled: true,
|
10
11
|
id: 'qwen-long',
|
@@ -61,7 +62,7 @@ const Qwen: ModelProviderCard = {
|
|
61
62
|
tokens: 32_768,
|
62
63
|
vision: true,
|
63
64
|
},
|
64
|
-
// ref https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-7b-14b-72b-api-detailes
|
65
|
+
// ref :https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-7b-14b-72b-api-detailes
|
65
66
|
{
|
66
67
|
description: '通义千问2对外开源的7B规模的模型',
|
67
68
|
displayName: 'Qwen2 7B',
|
@@ -87,16 +88,14 @@ const Qwen: ModelProviderCard = {
|
|
87
88
|
tokens: 4096, // https://help.aliyun.com/zh/dashscope/developer-reference/use-qwen2-math-by-calling-api
|
88
89
|
},
|
89
90
|
{
|
90
|
-
description:
|
91
|
-
'以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。',
|
91
|
+
description: '以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。',
|
92
92
|
displayName: 'Qwen VL',
|
93
93
|
id: 'qwen-vl-v1',
|
94
94
|
tokens: 8192, // https://huggingface.co/Qwen/Qwen-VL/blob/main/config.json
|
95
95
|
vision: true,
|
96
96
|
},
|
97
97
|
{
|
98
|
-
description:
|
99
|
-
'通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。',
|
98
|
+
description: '通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。',
|
100
99
|
displayName: 'Qwen VL Chat',
|
101
100
|
id: 'qwen-vl-chat-v1',
|
102
101
|
tokens: 8192, // https://huggingface.co/Qwen/Qwen-VL-Chat/blob/main/config.json
|
@@ -104,14 +103,18 @@ const Qwen: ModelProviderCard = {
|
|
104
103
|
},
|
105
104
|
],
|
106
105
|
checkModel: 'qwen-turbo',
|
107
|
-
|
106
|
+
description:
|
107
|
+
'通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。',
|
108
|
+
disableBrowserRequest: true,
|
108
109
|
id: 'qwen',
|
109
110
|
modelList: { showModelFetcher: true },
|
111
|
+
modelsUrl: 'https://help.aliyun.com/zh/dashscope/developer-reference/api-details',
|
110
112
|
name: 'Qwen',
|
111
113
|
smoothing: {
|
112
114
|
speed: 2,
|
113
115
|
text: true,
|
114
116
|
},
|
117
|
+
url: 'https://tongyi.aliyun.com',
|
115
118
|
};
|
116
119
|
|
117
120
|
export default Qwen;
|
@@ -1,175 +1,208 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://siliconflow.cn/zh-cn/models
|
3
|
+
// ref :https://siliconflow.cn/zh-cn/models
|
4
4
|
const SiliconCloud: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
+
description: 'Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。',
|
7
8
|
displayName: 'Qwen2 1.5B',
|
8
9
|
id: 'Qwen/Qwen2-1.5B-Instruct',
|
9
10
|
tokens: 32_768,
|
10
11
|
},
|
11
12
|
{
|
13
|
+
description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
|
12
14
|
displayName: 'Qwen2 7B',
|
13
15
|
enabled: true,
|
14
16
|
id: 'Qwen/Qwen2-7B-Instruct',
|
15
17
|
tokens: 32_768,
|
16
18
|
},
|
17
19
|
{
|
20
|
+
description: 'Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。',
|
18
21
|
displayName: 'Qwen2 57B A14B',
|
19
22
|
id: 'Qwen/Qwen2-57B-A14B-Instruct',
|
20
23
|
tokens: 32_768,
|
21
24
|
},
|
22
25
|
{
|
26
|
+
description: 'Qwen2 是先进的通用语言模型,支持多种指令类型。',
|
23
27
|
displayName: 'Qwen2 72B',
|
24
28
|
enabled: true,
|
25
29
|
id: 'Qwen/Qwen2-72B-Instruct',
|
26
30
|
tokens: 32_768,
|
27
31
|
},
|
28
32
|
{
|
33
|
+
description: 'Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。',
|
29
34
|
displayName: 'Qwen2 Math 72B',
|
30
35
|
enabled: true,
|
31
36
|
id: 'Qwen/Qwen2-Math-72B-Instruct',
|
32
37
|
tokens: 32_768,
|
33
38
|
},
|
34
39
|
{
|
40
|
+
description: 'Qwen1.5 通过结合高级预训练和微调提升对话表达能力。',
|
35
41
|
displayName: 'Qwen1.5 7B',
|
36
42
|
id: 'Qwen/Qwen1.5-7B-Chat',
|
37
43
|
tokens: 32_768,
|
38
44
|
},
|
39
45
|
{
|
46
|
+
description: 'Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。',
|
40
47
|
displayName: 'Qwen1.5 14B',
|
41
48
|
id: 'Qwen/Qwen1.5-14B-Chat',
|
42
49
|
tokens: 32_768,
|
43
50
|
},
|
44
51
|
{
|
52
|
+
description: 'Qwen1.5 具备多领域问答和文本生成的能力。',
|
45
53
|
displayName: 'Qwen1.5 32B',
|
46
54
|
id: 'Qwen/Qwen1.5-32B-Chat',
|
47
55
|
tokens: 32_768,
|
48
56
|
},
|
49
57
|
{
|
58
|
+
description: '作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。',
|
50
59
|
displayName: 'Qwen1.5 110B',
|
51
60
|
id: 'Qwen/Qwen1.5-110B-Chat',
|
52
61
|
tokens: 32_768,
|
53
62
|
},
|
54
63
|
{
|
64
|
+
description: 'Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。',
|
55
65
|
displayName: 'Yi-1.5 6B',
|
56
66
|
id: '01-ai/Yi-1.5-6B-Chat',
|
57
67
|
tokens: 4096,
|
58
68
|
},
|
59
69
|
{
|
70
|
+
description: 'Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。',
|
60
71
|
displayName: 'Yi-1.5 9B',
|
61
72
|
enabled: true,
|
62
73
|
id: '01-ai/Yi-1.5-9B-Chat-16K',
|
63
74
|
tokens: 16_384,
|
64
75
|
},
|
65
76
|
{
|
77
|
+
description: 'Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。',
|
66
78
|
displayName: 'Yi-1.5 34B',
|
67
79
|
enabled: true,
|
68
80
|
id: '01-ai/Yi-1.5-34B-Chat-16K',
|
69
81
|
tokens: 16_384,
|
70
82
|
},
|
71
83
|
{
|
84
|
+
description: '作为双语会话语言模型, ChatGLM3能处理中英文转换任务。',
|
72
85
|
displayName: 'GLM-3 6B',
|
73
86
|
id: 'THUDM/chatglm3-6b',
|
74
87
|
tokens: 32_768,
|
75
88
|
},
|
76
89
|
{
|
90
|
+
description: 'GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。',
|
77
91
|
displayName: 'GLM-4 9B',
|
78
92
|
enabled: true,
|
79
93
|
id: 'THUDM/glm-4-9b-chat',
|
80
94
|
tokens: 32_768,
|
81
95
|
},
|
82
96
|
{
|
97
|
+
description: 'InternLM2.5 提供多场景下的智能对话解决方案。',
|
83
98
|
displayName: 'Internlm 2.5 7B',
|
84
99
|
enabled: true,
|
85
100
|
id: 'internlm/internlm2_5-7b-chat',
|
86
101
|
tokens: 32_768,
|
87
102
|
},
|
88
103
|
{
|
104
|
+
description: '创新的开源模型InternLM2.5,通过大规模的参数提高了对话智能。',
|
89
105
|
displayName: 'Internlm 2.5 20B',
|
90
106
|
enabled: true,
|
91
107
|
id: 'internlm/internlm2_5-20b-chat',
|
92
108
|
tokens: 32_768,
|
93
109
|
},
|
94
110
|
{
|
111
|
+
description: 'DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。',
|
95
112
|
displayName: 'DeepSeek V2.5',
|
96
113
|
enabled: true,
|
97
114
|
id: 'deepseek-ai/DeepSeek-V2.5',
|
98
115
|
tokens: 32_768,
|
99
116
|
},
|
100
117
|
{
|
118
|
+
description: 'DeepSeek V2 具备67亿参数,支持英中文本处理。',
|
101
119
|
displayName: 'DeepSeek V2 Chat',
|
102
120
|
id: 'deepseek-ai/DeepSeek-V2-Chat',
|
103
121
|
tokens: 32_768,
|
104
122
|
},
|
105
123
|
{
|
124
|
+
description: 'DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。',
|
106
125
|
displayName: 'DeepSeek V2 Coder',
|
107
126
|
id: 'deepseek-ai/DeepSeek-Coder-V2-Instruct',
|
108
127
|
tokens: 32_768,
|
109
128
|
},
|
110
129
|
{
|
130
|
+
description: 'DeepSeek 67B 是为高复杂性对话训练的先进模型。',
|
111
131
|
displayName: 'DeepSeek LLM 67B',
|
112
132
|
id: 'deepseek-ai/deepseek-llm-67b-chat',
|
113
133
|
tokens: 32_768,
|
114
134
|
},
|
115
135
|
{
|
136
|
+
description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
|
116
137
|
displayName: 'Gemma 2 9B',
|
117
138
|
enabled: true,
|
118
139
|
id: 'google/gemma-2-9b-it',
|
119
140
|
tokens: 8192,
|
120
141
|
},
|
121
142
|
{
|
143
|
+
description: 'Gemma 2 延续了轻量化与高效的设计理念。',
|
122
144
|
displayName: 'Gemma 2 27B',
|
123
145
|
enabled: true,
|
124
146
|
id: 'google/gemma-2-27b-it',
|
125
147
|
tokens: 8192,
|
126
148
|
},
|
127
149
|
{
|
150
|
+
description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
|
128
151
|
displayName: 'Llama 3.1 8B',
|
129
152
|
enabled: true,
|
130
153
|
id: 'meta-llama/Meta-Llama-3.1-8B-Instruct',
|
131
154
|
tokens: 32_768,
|
132
155
|
},
|
133
156
|
{
|
157
|
+
description: 'LLaMA 3.1 70B 提供多语言的高效对话支持。',
|
134
158
|
displayName: 'Llama 3.1 70B',
|
135
159
|
enabled: true,
|
136
160
|
id: 'meta-llama/Meta-Llama-3.1-70B-Instruct',
|
137
161
|
tokens: 32_768,
|
138
162
|
},
|
139
163
|
{
|
164
|
+
description: 'LLaMA 3.1 405B 是预训练和指令调整的强大机型。',
|
140
165
|
displayName: 'Llama 3.1 405B',
|
141
166
|
enabled: true,
|
142
167
|
id: 'meta-llama/Meta-Llama-3.1-405B-Instruct',
|
143
168
|
tokens: 32_768,
|
144
169
|
},
|
145
170
|
{
|
171
|
+
description: 'Reflection Llama 3.1 通过Reflection-Tuning技术提升推理能力。',
|
146
172
|
displayName: 'Reflection Llama 3.1 70B',
|
147
173
|
id: 'mattshumer/Reflection-Llama-3.1-70B',
|
148
174
|
tokens: 32_768,
|
149
175
|
},
|
150
176
|
{
|
177
|
+
description: 'LLaMA 3 支持大容量文本生成和指令解析。',
|
151
178
|
displayName: 'Llama 3 70B',
|
152
179
|
id: 'meta-llama/Meta-Llama-3-70B-Instruct',
|
153
180
|
tokens: 8192,
|
154
181
|
},
|
155
182
|
{
|
183
|
+
description: 'Mistral 7B 是按需 fine-tuning的模型,为任务提供优化解答。',
|
156
184
|
displayName: 'Mistral 7B',
|
157
185
|
id: 'mistralai/Mistral-7B-Instruct-v0.2',
|
158
186
|
tokens: 32_768,
|
159
187
|
},
|
160
188
|
{
|
189
|
+
description: 'Mixtral 8x7B 是预训练的稀疏混合专家模型,用于通用性文本任务。',
|
161
190
|
displayName: 'Mistral 8x7B',
|
162
191
|
id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
|
163
192
|
tokens: 32_768,
|
164
193
|
},
|
165
194
|
],
|
166
195
|
checkModel: 'Qwen/Qwen2-1.5B-Instruct',
|
196
|
+
description:
|
197
|
+
'SiliconFlow 致力于加速 AGI,以惠及人类,通过易用与成本低的 GenAI 堆栈提升大规模 AI 效率。',
|
167
198
|
id: 'siliconcloud',
|
168
199
|
modelList: { showModelFetcher: true },
|
200
|
+
modelsUrl: 'https://siliconflow.cn/zh-cn/models',
|
169
201
|
name: 'SiliconCloud',
|
170
202
|
proxyUrl: {
|
171
203
|
placeholder: 'https://api.siliconflow.cn/v1',
|
172
204
|
},
|
205
|
+
url: 'https://siliconflow.cn',
|
173
206
|
};
|
174
207
|
|
175
208
|
export default SiliconCloud;
|
@@ -1,11 +1,12 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
|
4
|
-
// ref https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
|
3
|
+
// ref: https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
|
4
|
+
// ref: https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
|
5
5
|
const Spark: ModelProviderCard = {
|
6
6
|
chatModels: [
|
7
7
|
{
|
8
|
-
description:
|
8
|
+
description:
|
9
|
+
'Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。',
|
9
10
|
displayName: 'Spark Lite',
|
10
11
|
enabled: true,
|
11
12
|
functionCall: false,
|
@@ -14,7 +15,8 @@ const Spark: ModelProviderCard = {
|
|
14
15
|
tokens: 8192,
|
15
16
|
},
|
16
17
|
{
|
17
|
-
description:
|
18
|
+
description:
|
19
|
+
'Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。',
|
18
20
|
displayName: 'Spark Pro',
|
19
21
|
enabled: true,
|
20
22
|
functionCall: false,
|
@@ -23,7 +25,8 @@ const Spark: ModelProviderCard = {
|
|
23
25
|
tokens: 8192,
|
24
26
|
},
|
25
27
|
{
|
26
|
-
description:
|
28
|
+
description:
|
29
|
+
'Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。',
|
27
30
|
displayName: 'Spark Pro-128K',
|
28
31
|
enabled: true,
|
29
32
|
functionCall: false,
|
@@ -32,7 +35,8 @@ const Spark: ModelProviderCard = {
|
|
32
35
|
tokens: 128_000,
|
33
36
|
},
|
34
37
|
{
|
35
|
-
description:
|
38
|
+
description:
|
39
|
+
'Spark3.5 Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。',
|
36
40
|
displayName: 'Spark3.5 Max',
|
37
41
|
enabled: true,
|
38
42
|
functionCall: false,
|
@@ -41,7 +45,8 @@ const Spark: ModelProviderCard = {
|
|
41
45
|
tokens: 8192,
|
42
46
|
},
|
43
47
|
{
|
44
|
-
description:
|
48
|
+
description:
|
49
|
+
'Spark4.0 Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。',
|
45
50
|
displayName: 'Spark4.0 Ultra',
|
46
51
|
enabled: true,
|
47
52
|
functionCall: false,
|
@@ -51,13 +56,17 @@ const Spark: ModelProviderCard = {
|
|
51
56
|
},
|
52
57
|
],
|
53
58
|
checkModel: 'general',
|
59
|
+
description:
|
60
|
+
'科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。',
|
54
61
|
id: 'spark',
|
55
62
|
modelList: { showModelFetcher: true },
|
63
|
+
modelsUrl: 'https://xinghuo.xfyun.cn/spark',
|
56
64
|
name: 'Spark',
|
57
65
|
smoothing: {
|
58
66
|
speed: 2,
|
59
67
|
text: true,
|
60
68
|
},
|
69
|
+
url: 'https://www.xfyun.cn',
|
61
70
|
};
|
62
71
|
|
63
72
|
export default Spark;
|
@@ -1,45 +1,52 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://platform.stepfun.com/docs/llm/text
|
3
|
+
// ref: https://platform.stepfun.com/docs/llm/text
|
4
4
|
// 根据文档,阶级星辰大模型的上下文长度,其 k 的含义均为 1000
|
5
5
|
const Stepfun: ModelProviderCard = {
|
6
6
|
chatModels: [
|
7
7
|
{
|
8
|
+
description: '支持大规模上下文交互,适合复杂对话场景。',
|
8
9
|
displayName: 'Step 2 16K',
|
9
10
|
enabled: true,
|
10
11
|
id: 'step-2-16k',
|
11
12
|
tokens: 16_000,
|
12
13
|
},
|
13
14
|
{
|
15
|
+
description: '具备超长上下文处理能力,尤其适合长文档分析。',
|
14
16
|
displayName: 'Step 1 256K',
|
15
17
|
id: 'step-1-256k',
|
16
18
|
tokens: 256_000,
|
17
19
|
},
|
18
20
|
{
|
21
|
+
description: '平衡性能与成本,适合一般场景。',
|
19
22
|
displayName: 'Step 1 128K',
|
20
23
|
enabled: true,
|
21
24
|
id: 'step-1-128k',
|
22
25
|
tokens: 128_000,
|
23
26
|
},
|
24
27
|
{
|
28
|
+
description: '支持中等长度的对话,适用于多种应用场景。',
|
25
29
|
displayName: 'Step 1 32K',
|
26
30
|
enabled: true,
|
27
31
|
id: 'step-1-32k',
|
28
32
|
tokens: 32_000,
|
29
33
|
},
|
30
34
|
{
|
35
|
+
description: '小型模型,适合轻量级任务。',
|
31
36
|
displayName: 'Step 1 8K',
|
32
37
|
enabled: true,
|
33
38
|
id: 'step-1-8k',
|
34
39
|
tokens: 8000,
|
35
40
|
},
|
36
41
|
{
|
42
|
+
description: '高速模型,适合实时对话。',
|
37
43
|
displayName: 'Step 1 Flash',
|
38
44
|
enabled: true,
|
39
45
|
id: 'step-1-flash',
|
40
46
|
tokens: 8000,
|
41
47
|
},
|
42
48
|
{
|
49
|
+
description: '支持视觉输入,增强多模态交互体验。',
|
43
50
|
displayName: 'Step 1V 32K',
|
44
51
|
enabled: true,
|
45
52
|
id: 'step-1v-32k',
|
@@ -47,6 +54,7 @@ const Stepfun: ModelProviderCard = {
|
|
47
54
|
vision: true,
|
48
55
|
},
|
49
56
|
{
|
57
|
+
description: '小型视觉模型,适合基本的图文任务。',
|
50
58
|
displayName: 'Step 1V 8K',
|
51
59
|
enabled: true,
|
52
60
|
id: 'step-1v-8k',
|
@@ -55,16 +63,20 @@ const Stepfun: ModelProviderCard = {
|
|
55
63
|
},
|
56
64
|
],
|
57
65
|
checkModel: 'step-1-flash',
|
66
|
+
description:
|
67
|
+
'阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。',
|
58
68
|
// after test, currently https://api.stepfun.com/v1/chat/completions has the CORS issue
|
59
69
|
// So we should close the browser request mode
|
60
70
|
disableBrowserRequest: true,
|
61
71
|
id: 'stepfun',
|
62
72
|
modelList: { showModelFetcher: true },
|
73
|
+
modelsUrl: 'https://platform.stepfun.com/docs/llm/text',
|
63
74
|
name: 'Stepfun',
|
64
75
|
smoothing: {
|
65
76
|
speed: 2,
|
66
77
|
text: true,
|
67
78
|
},
|
79
|
+
url: 'https://stepfun.com',
|
68
80
|
};
|
69
81
|
|
70
82
|
export default Stepfun;
|
@@ -1,10 +1,11 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://ai-maas.wair.ac.cn/#/doc
|
3
|
+
// ref :https://ai-maas.wair.ac.cn/#/doc
|
4
4
|
const Taichu: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
-
description:
|
7
|
+
description:
|
8
|
+
'紫东太初语言大模型具备超强语言理解能力以及文本创作、知识问答、代码编程、数学计算、逻辑推理、情感分析、文本摘要等能力。创新性地将大数据预训练与多源丰富知识相结合,通过持续打磨算法技术,并不断吸收海量文本数据中词汇、结构、语法、语义等方面的新知识,实现模型效果不断进化。为用户提供更加便捷的信息和服务以及更为智能化的体验。',
|
8
9
|
displayName: 'Taichu-2.0',
|
9
10
|
enabled: true,
|
10
11
|
functionCall: false,
|
@@ -13,9 +14,13 @@ const Taichu: ModelProviderCard = {
|
|
13
14
|
},
|
14
15
|
],
|
15
16
|
checkModel: 'taichu_llm',
|
17
|
+
description:
|
18
|
+
'中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。',
|
16
19
|
id: 'taichu',
|
17
20
|
modelList: { showModelFetcher: true },
|
21
|
+
modelsUrl: 'https://ai-maas.wair.ac.cn/#/doc',
|
18
22
|
name: 'Taichu',
|
23
|
+
url: 'https://ai-maas.wair.ac.cn',
|
19
24
|
};
|
20
25
|
|
21
26
|
export default Taichu;
|