@lobehub/chat 1.16.8 → 1.16.10
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Potentially problematic release.
This version of @lobehub/chat might be problematic. Click here for more details.
- package/CHANGELOG.md +58 -0
- package/package.json +3 -3
- package/src/config/__tests__/auth.test.ts +200 -0
- package/src/config/auth.ts +97 -2
- package/src/config/modelProviders/ai360.ts +11 -0
- package/src/config/modelProviders/anthropic.ts +27 -18
- package/src/config/modelProviders/azure.ts +12 -3
- package/src/config/modelProviders/baichuan.ts +3 -1
- package/src/config/modelProviders/bedrock.ts +20 -18
- package/src/config/modelProviders/deepseek.ts +3 -1
- package/src/config/modelProviders/fireworksai.ts +33 -5
- package/src/config/modelProviders/google.ts +16 -13
- package/src/config/modelProviders/groq.ts +19 -8
- package/src/config/modelProviders/minimax.ts +8 -6
- package/src/config/modelProviders/mistral.ts +19 -3
- package/src/config/modelProviders/moonshot.ts +11 -1
- package/src/config/modelProviders/novita.ts +24 -0
- package/src/config/modelProviders/ollama.ts +58 -1
- package/src/config/modelProviders/openai.ts +52 -18
- package/src/config/modelProviders/openrouter.ts +21 -1
- package/src/config/modelProviders/perplexity.ts +19 -3
- package/src/config/modelProviders/qwen.ts +11 -8
- package/src/config/modelProviders/siliconcloud.ts +34 -1
- package/src/config/modelProviders/spark.ts +16 -7
- package/src/config/modelProviders/stepfun.ts +13 -1
- package/src/config/modelProviders/taichu.ts +7 -2
- package/src/config/modelProviders/togetherai.ts +38 -2
- package/src/config/modelProviders/upstage.ts +11 -4
- package/src/config/modelProviders/zeroone.ts +5 -1
- package/src/config/modelProviders/zhipu.ts +20 -18
- package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +13 -6
- package/src/libs/agent-runtime/qwen/index.test.ts +20 -4
- package/src/libs/agent-runtime/qwen/index.ts +1 -1
- package/src/libs/next-auth/auth.config.ts +3 -1
- package/src/libs/next-auth/sso-providers/auth0.ts +5 -3
- package/src/libs/next-auth/sso-providers/authelia.ts +6 -6
- package/src/libs/next-auth/sso-providers/authentik.ts +5 -3
- package/src/libs/next-auth/sso-providers/azure-ad.ts +5 -3
- package/src/libs/next-auth/sso-providers/cloudflare-zero-trust.ts +4 -3
- package/src/libs/next-auth/sso-providers/generic-oidc.ts +3 -3
- package/src/libs/next-auth/sso-providers/github.ts +4 -2
- package/src/libs/next-auth/sso-providers/logto.ts +3 -3
- package/src/libs/next-auth/sso-providers/zitadel.ts +5 -3
- package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
- package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +24 -4
- package/src/server/routers/edge/config/index.test.ts +3 -11
- package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
- package/src/store/user/slices/modelList/action.test.ts +3 -7
- package/src/types/llm.ts +1 -0
- package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
- package/src/utils/parseModels.test.ts +1 -28
@@ -1,175 +1,208 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://siliconflow.cn/zh-cn/models
|
3
|
+
// ref :https://siliconflow.cn/zh-cn/models
|
4
4
|
const SiliconCloud: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
+
description: 'Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。',
|
7
8
|
displayName: 'Qwen2 1.5B',
|
8
9
|
id: 'Qwen/Qwen2-1.5B-Instruct',
|
9
10
|
tokens: 32_768,
|
10
11
|
},
|
11
12
|
{
|
13
|
+
description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
|
12
14
|
displayName: 'Qwen2 7B',
|
13
15
|
enabled: true,
|
14
16
|
id: 'Qwen/Qwen2-7B-Instruct',
|
15
17
|
tokens: 32_768,
|
16
18
|
},
|
17
19
|
{
|
20
|
+
description: 'Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。',
|
18
21
|
displayName: 'Qwen2 57B A14B',
|
19
22
|
id: 'Qwen/Qwen2-57B-A14B-Instruct',
|
20
23
|
tokens: 32_768,
|
21
24
|
},
|
22
25
|
{
|
26
|
+
description: 'Qwen2 是先进的通用语言模型,支持多种指令类型。',
|
23
27
|
displayName: 'Qwen2 72B',
|
24
28
|
enabled: true,
|
25
29
|
id: 'Qwen/Qwen2-72B-Instruct',
|
26
30
|
tokens: 32_768,
|
27
31
|
},
|
28
32
|
{
|
33
|
+
description: 'Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。',
|
29
34
|
displayName: 'Qwen2 Math 72B',
|
30
35
|
enabled: true,
|
31
36
|
id: 'Qwen/Qwen2-Math-72B-Instruct',
|
32
37
|
tokens: 32_768,
|
33
38
|
},
|
34
39
|
{
|
40
|
+
description: 'Qwen1.5 通过结合高级预训练和微调提升对话表达能力。',
|
35
41
|
displayName: 'Qwen1.5 7B',
|
36
42
|
id: 'Qwen/Qwen1.5-7B-Chat',
|
37
43
|
tokens: 32_768,
|
38
44
|
},
|
39
45
|
{
|
46
|
+
description: 'Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。',
|
40
47
|
displayName: 'Qwen1.5 14B',
|
41
48
|
id: 'Qwen/Qwen1.5-14B-Chat',
|
42
49
|
tokens: 32_768,
|
43
50
|
},
|
44
51
|
{
|
52
|
+
description: 'Qwen1.5 具备多领域问答和文本生成的能力。',
|
45
53
|
displayName: 'Qwen1.5 32B',
|
46
54
|
id: 'Qwen/Qwen1.5-32B-Chat',
|
47
55
|
tokens: 32_768,
|
48
56
|
},
|
49
57
|
{
|
58
|
+
description: '作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。',
|
50
59
|
displayName: 'Qwen1.5 110B',
|
51
60
|
id: 'Qwen/Qwen1.5-110B-Chat',
|
52
61
|
tokens: 32_768,
|
53
62
|
},
|
54
63
|
{
|
64
|
+
description: 'Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。',
|
55
65
|
displayName: 'Yi-1.5 6B',
|
56
66
|
id: '01-ai/Yi-1.5-6B-Chat',
|
57
67
|
tokens: 4096,
|
58
68
|
},
|
59
69
|
{
|
70
|
+
description: 'Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。',
|
60
71
|
displayName: 'Yi-1.5 9B',
|
61
72
|
enabled: true,
|
62
73
|
id: '01-ai/Yi-1.5-9B-Chat-16K',
|
63
74
|
tokens: 16_384,
|
64
75
|
},
|
65
76
|
{
|
77
|
+
description: 'Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。',
|
66
78
|
displayName: 'Yi-1.5 34B',
|
67
79
|
enabled: true,
|
68
80
|
id: '01-ai/Yi-1.5-34B-Chat-16K',
|
69
81
|
tokens: 16_384,
|
70
82
|
},
|
71
83
|
{
|
84
|
+
description: '作为双语会话语言模型, ChatGLM3能处理中英文转换任务。',
|
72
85
|
displayName: 'GLM-3 6B',
|
73
86
|
id: 'THUDM/chatglm3-6b',
|
74
87
|
tokens: 32_768,
|
75
88
|
},
|
76
89
|
{
|
90
|
+
description: 'GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。',
|
77
91
|
displayName: 'GLM-4 9B',
|
78
92
|
enabled: true,
|
79
93
|
id: 'THUDM/glm-4-9b-chat',
|
80
94
|
tokens: 32_768,
|
81
95
|
},
|
82
96
|
{
|
97
|
+
description: 'InternLM2.5 提供多场景下的智能对话解决方案。',
|
83
98
|
displayName: 'Internlm 2.5 7B',
|
84
99
|
enabled: true,
|
85
100
|
id: 'internlm/internlm2_5-7b-chat',
|
86
101
|
tokens: 32_768,
|
87
102
|
},
|
88
103
|
{
|
104
|
+
description: '创新的开源模型InternLM2.5,通过大规模的参数提高了对话智能。',
|
89
105
|
displayName: 'Internlm 2.5 20B',
|
90
106
|
enabled: true,
|
91
107
|
id: 'internlm/internlm2_5-20b-chat',
|
92
108
|
tokens: 32_768,
|
93
109
|
},
|
94
110
|
{
|
111
|
+
description: 'DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。',
|
95
112
|
displayName: 'DeepSeek V2.5',
|
96
113
|
enabled: true,
|
97
114
|
id: 'deepseek-ai/DeepSeek-V2.5',
|
98
115
|
tokens: 32_768,
|
99
116
|
},
|
100
117
|
{
|
118
|
+
description: 'DeepSeek V2 具备67亿参数,支持英中文本处理。',
|
101
119
|
displayName: 'DeepSeek V2 Chat',
|
102
120
|
id: 'deepseek-ai/DeepSeek-V2-Chat',
|
103
121
|
tokens: 32_768,
|
104
122
|
},
|
105
123
|
{
|
124
|
+
description: 'DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。',
|
106
125
|
displayName: 'DeepSeek V2 Coder',
|
107
126
|
id: 'deepseek-ai/DeepSeek-Coder-V2-Instruct',
|
108
127
|
tokens: 32_768,
|
109
128
|
},
|
110
129
|
{
|
130
|
+
description: 'DeepSeek 67B 是为高复杂性对话训练的先进模型。',
|
111
131
|
displayName: 'DeepSeek LLM 67B',
|
112
132
|
id: 'deepseek-ai/deepseek-llm-67b-chat',
|
113
133
|
tokens: 32_768,
|
114
134
|
},
|
115
135
|
{
|
136
|
+
description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
|
116
137
|
displayName: 'Gemma 2 9B',
|
117
138
|
enabled: true,
|
118
139
|
id: 'google/gemma-2-9b-it',
|
119
140
|
tokens: 8192,
|
120
141
|
},
|
121
142
|
{
|
143
|
+
description: 'Gemma 2 延续了轻量化与高效的设计理念。',
|
122
144
|
displayName: 'Gemma 2 27B',
|
123
145
|
enabled: true,
|
124
146
|
id: 'google/gemma-2-27b-it',
|
125
147
|
tokens: 8192,
|
126
148
|
},
|
127
149
|
{
|
150
|
+
description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
|
128
151
|
displayName: 'Llama 3.1 8B',
|
129
152
|
enabled: true,
|
130
153
|
id: 'meta-llama/Meta-Llama-3.1-8B-Instruct',
|
131
154
|
tokens: 32_768,
|
132
155
|
},
|
133
156
|
{
|
157
|
+
description: 'LLaMA 3.1 70B 提供多语言的高效对话支持。',
|
134
158
|
displayName: 'Llama 3.1 70B',
|
135
159
|
enabled: true,
|
136
160
|
id: 'meta-llama/Meta-Llama-3.1-70B-Instruct',
|
137
161
|
tokens: 32_768,
|
138
162
|
},
|
139
163
|
{
|
164
|
+
description: 'LLaMA 3.1 405B 是预训练和指令调整的强大机型。',
|
140
165
|
displayName: 'Llama 3.1 405B',
|
141
166
|
enabled: true,
|
142
167
|
id: 'meta-llama/Meta-Llama-3.1-405B-Instruct',
|
143
168
|
tokens: 32_768,
|
144
169
|
},
|
145
170
|
{
|
171
|
+
description: 'Reflection Llama 3.1 通过Reflection-Tuning技术提升推理能力。',
|
146
172
|
displayName: 'Reflection Llama 3.1 70B',
|
147
173
|
id: 'mattshumer/Reflection-Llama-3.1-70B',
|
148
174
|
tokens: 32_768,
|
149
175
|
},
|
150
176
|
{
|
177
|
+
description: 'LLaMA 3 支持大容量文本生成和指令解析。',
|
151
178
|
displayName: 'Llama 3 70B',
|
152
179
|
id: 'meta-llama/Meta-Llama-3-70B-Instruct',
|
153
180
|
tokens: 8192,
|
154
181
|
},
|
155
182
|
{
|
183
|
+
description: 'Mistral 7B 是按需 fine-tuning的模型,为任务提供优化解答。',
|
156
184
|
displayName: 'Mistral 7B',
|
157
185
|
id: 'mistralai/Mistral-7B-Instruct-v0.2',
|
158
186
|
tokens: 32_768,
|
159
187
|
},
|
160
188
|
{
|
189
|
+
description: 'Mixtral 8x7B 是预训练的稀疏混合专家模型,用于通用性文本任务。',
|
161
190
|
displayName: 'Mistral 8x7B',
|
162
191
|
id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
|
163
192
|
tokens: 32_768,
|
164
193
|
},
|
165
194
|
],
|
166
195
|
checkModel: 'Qwen/Qwen2-1.5B-Instruct',
|
196
|
+
description:
|
197
|
+
'SiliconFlow 致力于加速 AGI,以惠及人类,通过易用与成本低的 GenAI 堆栈提升大规模 AI 效率。',
|
167
198
|
id: 'siliconcloud',
|
168
199
|
modelList: { showModelFetcher: true },
|
200
|
+
modelsUrl: 'https://siliconflow.cn/zh-cn/models',
|
169
201
|
name: 'SiliconCloud',
|
170
202
|
proxyUrl: {
|
171
203
|
placeholder: 'https://api.siliconflow.cn/v1',
|
172
204
|
},
|
205
|
+
url: 'https://siliconflow.cn',
|
173
206
|
};
|
174
207
|
|
175
208
|
export default SiliconCloud;
|
@@ -1,11 +1,12 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
|
4
|
-
// ref https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
|
3
|
+
// ref: https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
|
4
|
+
// ref: https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
|
5
5
|
const Spark: ModelProviderCard = {
|
6
6
|
chatModels: [
|
7
7
|
{
|
8
|
-
description:
|
8
|
+
description:
|
9
|
+
'Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。',
|
9
10
|
displayName: 'Spark Lite',
|
10
11
|
enabled: true,
|
11
12
|
functionCall: false,
|
@@ -14,7 +15,8 @@ const Spark: ModelProviderCard = {
|
|
14
15
|
tokens: 8192,
|
15
16
|
},
|
16
17
|
{
|
17
|
-
description:
|
18
|
+
description:
|
19
|
+
'Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。',
|
18
20
|
displayName: 'Spark Pro',
|
19
21
|
enabled: true,
|
20
22
|
functionCall: false,
|
@@ -23,7 +25,8 @@ const Spark: ModelProviderCard = {
|
|
23
25
|
tokens: 8192,
|
24
26
|
},
|
25
27
|
{
|
26
|
-
description:
|
28
|
+
description:
|
29
|
+
'Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。',
|
27
30
|
displayName: 'Spark Pro-128K',
|
28
31
|
enabled: true,
|
29
32
|
functionCall: false,
|
@@ -32,7 +35,8 @@ const Spark: ModelProviderCard = {
|
|
32
35
|
tokens: 128_000,
|
33
36
|
},
|
34
37
|
{
|
35
|
-
description:
|
38
|
+
description:
|
39
|
+
'Spark3.5 Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。',
|
36
40
|
displayName: 'Spark3.5 Max',
|
37
41
|
enabled: true,
|
38
42
|
functionCall: false,
|
@@ -41,7 +45,8 @@ const Spark: ModelProviderCard = {
|
|
41
45
|
tokens: 8192,
|
42
46
|
},
|
43
47
|
{
|
44
|
-
description:
|
48
|
+
description:
|
49
|
+
'Spark4.0 Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。',
|
45
50
|
displayName: 'Spark4.0 Ultra',
|
46
51
|
enabled: true,
|
47
52
|
functionCall: false,
|
@@ -51,13 +56,17 @@ const Spark: ModelProviderCard = {
|
|
51
56
|
},
|
52
57
|
],
|
53
58
|
checkModel: 'general',
|
59
|
+
description:
|
60
|
+
'科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。',
|
54
61
|
id: 'spark',
|
55
62
|
modelList: { showModelFetcher: true },
|
63
|
+
modelsUrl: 'https://xinghuo.xfyun.cn/spark',
|
56
64
|
name: 'Spark',
|
57
65
|
smoothing: {
|
58
66
|
speed: 2,
|
59
67
|
text: true,
|
60
68
|
},
|
69
|
+
url: 'https://www.xfyun.cn',
|
61
70
|
};
|
62
71
|
|
63
72
|
export default Spark;
|
@@ -1,45 +1,52 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://platform.stepfun.com/docs/llm/text
|
3
|
+
// ref: https://platform.stepfun.com/docs/llm/text
|
4
4
|
// 根据文档,阶级星辰大模型的上下文长度,其 k 的含义均为 1000
|
5
5
|
const Stepfun: ModelProviderCard = {
|
6
6
|
chatModels: [
|
7
7
|
{
|
8
|
+
description: '支持大规模上下文交互,适合复杂对话场景。',
|
8
9
|
displayName: 'Step 2 16K',
|
9
10
|
enabled: true,
|
10
11
|
id: 'step-2-16k',
|
11
12
|
tokens: 16_000,
|
12
13
|
},
|
13
14
|
{
|
15
|
+
description: '具备超长上下文处理能力,尤其适合长文档分析。',
|
14
16
|
displayName: 'Step 1 256K',
|
15
17
|
id: 'step-1-256k',
|
16
18
|
tokens: 256_000,
|
17
19
|
},
|
18
20
|
{
|
21
|
+
description: '平衡性能与成本,适合一般场景。',
|
19
22
|
displayName: 'Step 1 128K',
|
20
23
|
enabled: true,
|
21
24
|
id: 'step-1-128k',
|
22
25
|
tokens: 128_000,
|
23
26
|
},
|
24
27
|
{
|
28
|
+
description: '支持中等长度的对话,适用于多种应用场景。',
|
25
29
|
displayName: 'Step 1 32K',
|
26
30
|
enabled: true,
|
27
31
|
id: 'step-1-32k',
|
28
32
|
tokens: 32_000,
|
29
33
|
},
|
30
34
|
{
|
35
|
+
description: '小型模型,适合轻量级任务。',
|
31
36
|
displayName: 'Step 1 8K',
|
32
37
|
enabled: true,
|
33
38
|
id: 'step-1-8k',
|
34
39
|
tokens: 8000,
|
35
40
|
},
|
36
41
|
{
|
42
|
+
description: '高速模型,适合实时对话。',
|
37
43
|
displayName: 'Step 1 Flash',
|
38
44
|
enabled: true,
|
39
45
|
id: 'step-1-flash',
|
40
46
|
tokens: 8000,
|
41
47
|
},
|
42
48
|
{
|
49
|
+
description: '支持视觉输入,增强多模态交互体验。',
|
43
50
|
displayName: 'Step 1V 32K',
|
44
51
|
enabled: true,
|
45
52
|
id: 'step-1v-32k',
|
@@ -47,6 +54,7 @@ const Stepfun: ModelProviderCard = {
|
|
47
54
|
vision: true,
|
48
55
|
},
|
49
56
|
{
|
57
|
+
description: '小型视觉模型,适合基本的图文任务。',
|
50
58
|
displayName: 'Step 1V 8K',
|
51
59
|
enabled: true,
|
52
60
|
id: 'step-1v-8k',
|
@@ -55,16 +63,20 @@ const Stepfun: ModelProviderCard = {
|
|
55
63
|
},
|
56
64
|
],
|
57
65
|
checkModel: 'step-1-flash',
|
66
|
+
description:
|
67
|
+
'阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。',
|
58
68
|
// after test, currently https://api.stepfun.com/v1/chat/completions has the CORS issue
|
59
69
|
// So we should close the browser request mode
|
60
70
|
disableBrowserRequest: true,
|
61
71
|
id: 'stepfun',
|
62
72
|
modelList: { showModelFetcher: true },
|
73
|
+
modelsUrl: 'https://platform.stepfun.com/docs/llm/text',
|
63
74
|
name: 'Stepfun',
|
64
75
|
smoothing: {
|
65
76
|
speed: 2,
|
66
77
|
text: true,
|
67
78
|
},
|
79
|
+
url: 'https://stepfun.com',
|
68
80
|
};
|
69
81
|
|
70
82
|
export default Stepfun;
|
@@ -1,10 +1,11 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://ai-maas.wair.ac.cn/#/doc
|
3
|
+
// ref :https://ai-maas.wair.ac.cn/#/doc
|
4
4
|
const Taichu: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
-
description:
|
7
|
+
description:
|
8
|
+
'紫东太初语言大模型具备超强语言理解能力以及文本创作、知识问答、代码编程、数学计算、逻辑推理、情感分析、文本摘要等能力。创新性地将大数据预训练与多源丰富知识相结合,通过持续打磨算法技术,并不断吸收海量文本数据中词汇、结构、语法、语义等方面的新知识,实现模型效果不断进化。为用户提供更加便捷的信息和服务以及更为智能化的体验。',
|
8
9
|
displayName: 'Taichu-2.0',
|
9
10
|
enabled: true,
|
10
11
|
functionCall: false,
|
@@ -13,9 +14,13 @@ const Taichu: ModelProviderCard = {
|
|
13
14
|
},
|
14
15
|
],
|
15
16
|
checkModel: 'taichu_llm',
|
17
|
+
description:
|
18
|
+
'中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。',
|
16
19
|
id: 'taichu',
|
17
20
|
modelList: { showModelFetcher: true },
|
21
|
+
modelsUrl: 'https://ai-maas.wair.ac.cn/#/doc',
|
18
22
|
name: 'Taichu',
|
23
|
+
url: 'https://ai-maas.wair.ac.cn',
|
19
24
|
};
|
20
25
|
|
21
26
|
export default Taichu;
|
@@ -1,164 +1,200 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://docs.together.ai/docs/chat-models
|
4
|
-
// ref https://www.together.ai/pricing
|
3
|
+
// ref :https://docs.together.ai/docs/chat-models
|
4
|
+
// ref :https://www.together.ai/pricing
|
5
5
|
const TogetherAI: ModelProviderCard = {
|
6
6
|
chatModels: [
|
7
7
|
{
|
8
|
+
description:
|
9
|
+
'Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。',
|
8
10
|
displayName: 'Llama 3.1 8B Instruct Turbo',
|
9
11
|
enabled: true,
|
10
12
|
id: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
|
11
13
|
tokens: 131_072,
|
12
14
|
},
|
13
15
|
{
|
16
|
+
description:
|
17
|
+
'Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。',
|
14
18
|
displayName: 'Llama 3.1 70B Instruct Turbo',
|
15
19
|
enabled: true,
|
16
20
|
id: 'meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo',
|
17
21
|
tokens: 131_072,
|
18
22
|
},
|
19
23
|
{
|
24
|
+
description:
|
25
|
+
'405B 的 Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。',
|
20
26
|
displayName: 'Llama 3.1 405B Instruct Turbo',
|
21
27
|
enabled: true,
|
22
28
|
id: 'meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo',
|
23
29
|
tokens: 8192,
|
24
30
|
},
|
25
31
|
{
|
32
|
+
description: 'Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。',
|
26
33
|
displayName: 'Llama 3 8B Instruct Turbo',
|
27
34
|
id: 'meta-llama/Meta-Llama-3-8B-Instruct-Turbo',
|
28
35
|
tokens: 8192,
|
29
36
|
},
|
30
37
|
{
|
38
|
+
description:
|
39
|
+
'Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。',
|
31
40
|
displayName: 'Llama 3 70B Instruct Turbo',
|
32
41
|
id: 'meta-llama/Meta-Llama-3-70B-Instruct-Turbo',
|
33
42
|
tokens: 8192,
|
34
43
|
},
|
35
44
|
{
|
45
|
+
description: 'Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。',
|
36
46
|
displayName: 'Llama 3 8B Instruct Lite',
|
37
47
|
id: 'meta-llama/Meta-Llama-3-8B-Instruct-Lite',
|
38
48
|
tokens: 8192,
|
39
49
|
},
|
40
50
|
{
|
51
|
+
description: 'Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。',
|
41
52
|
displayName: 'Llama 3 70B Instruct Lite',
|
42
53
|
id: 'meta-llama/Meta-Llama-3-70B-Instruct-Lite',
|
43
54
|
tokens: 8192,
|
44
55
|
},
|
45
56
|
{
|
57
|
+
description: 'LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。',
|
46
58
|
displayName: 'LLaMA-3 Chat (8B)',
|
47
59
|
id: 'meta-llama/Llama-3-8b-chat-hf',
|
48
60
|
tokens: 8192,
|
49
61
|
},
|
50
62
|
{
|
63
|
+
description: 'LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。',
|
51
64
|
displayName: 'LLaMA-3 Chat (70B)',
|
52
65
|
id: 'meta-llama/Llama-3-70b-chat-hf',
|
53
66
|
tokens: 8192,
|
54
67
|
},
|
55
68
|
{
|
69
|
+
description: 'LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。',
|
56
70
|
displayName: 'LLaMA-2 Chat (13B)',
|
57
71
|
id: 'meta-llama/Llama-2-13b-chat-hf',
|
58
72
|
tokens: 4096,
|
59
73
|
},
|
60
74
|
{
|
75
|
+
description: 'Gemma 2 9B 由Google开发,提供高效的指令响应和综合能力。',
|
61
76
|
displayName: 'Gemma 2 9B',
|
62
77
|
enabled: true,
|
63
78
|
id: 'google/gemma-2-9b-it',
|
64
79
|
tokens: 8192,
|
65
80
|
},
|
66
81
|
{
|
82
|
+
description: 'Gemma 2 27B 是一款通用大语言模型,具有优异的性能和广泛的应用场景。',
|
67
83
|
displayName: 'Gemma 2 27B',
|
68
84
|
enabled: true,
|
69
85
|
id: 'google/gemma-2-27b-it',
|
70
86
|
tokens: 8192,
|
71
87
|
},
|
72
88
|
{
|
89
|
+
description: 'Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。',
|
73
90
|
displayName: 'Gemma Instruct (2B)',
|
74
91
|
id: 'google/gemma-2b-it',
|
75
92
|
tokens: 8192,
|
76
93
|
},
|
77
94
|
{
|
95
|
+
description: 'Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。',
|
78
96
|
displayName: 'Mistral (7B) Instruct v0.3',
|
79
97
|
enabled: true,
|
80
98
|
id: 'mistralai/Mistral-7B-Instruct-v0.3',
|
81
99
|
tokens: 32_768,
|
82
100
|
},
|
83
101
|
{
|
102
|
+
description: 'Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。',
|
84
103
|
displayName: 'Mistral (7B) Instruct v0.2',
|
85
104
|
id: 'mistralai/Mistral-7B-Instruct-v0.2',
|
86
105
|
tokens: 32_768,
|
87
106
|
},
|
88
107
|
{
|
108
|
+
description: 'Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。',
|
89
109
|
displayName: 'Mistral (7B) Instruct',
|
90
110
|
id: 'mistralai/Mistral-7B-Instruct-v0.1',
|
91
111
|
tokens: 8192,
|
92
112
|
},
|
93
113
|
{
|
114
|
+
description: 'Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。',
|
94
115
|
displayName: 'Mixtral-8x7B Instruct (46.7B)',
|
95
116
|
enabled: true,
|
96
117
|
id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
|
97
118
|
tokens: 32_768,
|
98
119
|
},
|
99
120
|
{
|
121
|
+
description: 'Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。',
|
100
122
|
displayName: 'Mixtral-8x22B Instruct (141B)',
|
101
123
|
enabled: true,
|
102
124
|
id: 'mistralai/Mixtral-8x22B-Instruct-v0.1',
|
103
125
|
tokens: 65_536,
|
104
126
|
},
|
105
127
|
{
|
128
|
+
description: 'DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。',
|
106
129
|
displayName: 'DeepSeek LLM Chat (67B)',
|
107
130
|
enabled: true,
|
108
131
|
id: 'deepseek-ai/deepseek-llm-67b-chat',
|
109
132
|
tokens: 4096,
|
110
133
|
},
|
111
134
|
{
|
135
|
+
description: 'Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。',
|
112
136
|
displayName: 'Qwen 2 Instruct (72B)',
|
113
137
|
enabled: true,
|
114
138
|
id: 'Qwen/Qwen2-72B-Instruct',
|
115
139
|
tokens: 32_768,
|
116
140
|
},
|
117
141
|
{
|
142
|
+
description: 'Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。',
|
118
143
|
displayName: 'Qwen 1.5 Chat (72B)',
|
119
144
|
id: 'Qwen/Qwen1.5-72B-Chat',
|
120
145
|
tokens: 32_768,
|
121
146
|
},
|
122
147
|
{
|
148
|
+
description: 'Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。',
|
123
149
|
displayName: 'Qwen 1.5 Chat (110B)',
|
124
150
|
id: 'Qwen/Qwen1.5-110B-Chat',
|
125
151
|
tokens: 32_768,
|
126
152
|
},
|
127
153
|
{
|
154
|
+
description: 'DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。',
|
128
155
|
displayName: 'DBRX Instruct',
|
129
156
|
id: 'databricks/dbrx-instruct',
|
130
157
|
tokens: 32_768,
|
131
158
|
},
|
132
159
|
{
|
160
|
+
description: 'Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。',
|
133
161
|
displayName: 'Upstage SOLAR Instruct v1 (11B)',
|
134
162
|
id: 'upstage/SOLAR-10.7B-Instruct-v1.0',
|
135
163
|
tokens: 4096,
|
136
164
|
},
|
137
165
|
{
|
166
|
+
description: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。',
|
138
167
|
displayName: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)',
|
139
168
|
id: 'NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO',
|
140
169
|
tokens: 32_768,
|
141
170
|
},
|
142
171
|
{
|
172
|
+
description: 'Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。',
|
143
173
|
displayName: 'Nous Hermes-2 Yi (34B)',
|
144
174
|
id: 'NousResearch/Nous-Hermes-2-Yi-34B',
|
145
175
|
tokens: 4096,
|
146
176
|
},
|
147
177
|
{
|
178
|
+
description: 'MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。',
|
148
179
|
displayName: 'MythoMax-L2 (13B)',
|
149
180
|
id: 'Gryphe/MythoMax-L2-13b',
|
150
181
|
tokens: 4096,
|
151
182
|
},
|
152
183
|
{
|
184
|
+
description: 'StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。',
|
153
185
|
displayName: 'StripedHyena Nous (7B)',
|
154
186
|
id: 'togethercomputer/StripedHyena-Nous-7B',
|
155
187
|
tokens: 32_768,
|
156
188
|
},
|
157
189
|
],
|
158
190
|
checkModel: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
|
191
|
+
description:
|
192
|
+
'Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。',
|
159
193
|
id: 'togetherai',
|
160
194
|
modelList: { showModelFetcher: true },
|
195
|
+
modelsUrl: 'https://docs.together.ai/docs/chat-models',
|
161
196
|
name: 'Together AI',
|
197
|
+
url: 'https://www.together.ai',
|
162
198
|
};
|
163
199
|
|
164
200
|
export default TogetherAI;
|
@@ -1,10 +1,11 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://developers.upstage.ai/docs/getting-started/models
|
3
|
+
// ref :https://developers.upstage.ai/docs/getting-started/models
|
4
4
|
const Upstage: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
7
|
-
description:
|
7
|
+
description:
|
8
|
+
'Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。',
|
8
9
|
displayName: 'Solar Pro',
|
9
10
|
enabled: true,
|
10
11
|
functionCall: false,
|
@@ -12,7 +13,8 @@ const Upstage: ModelProviderCard = {
|
|
12
13
|
tokens: 4096,
|
13
14
|
},
|
14
15
|
{
|
15
|
-
description:
|
16
|
+
description:
|
17
|
+
'Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。',
|
16
18
|
displayName: 'Solar Mini',
|
17
19
|
enabled: true,
|
18
20
|
functionCall: true,
|
@@ -20,7 +22,8 @@ const Upstage: ModelProviderCard = {
|
|
20
22
|
tokens: 32_768,
|
21
23
|
},
|
22
24
|
{
|
23
|
-
description:
|
25
|
+
description:
|
26
|
+
'Solar Mini (Ja) 扩展了 Solar Mini 的能力,专注于日语,同时在英语和韩语的使用中保持高效和卓越性能。',
|
24
27
|
displayName: 'Solar Mini (Ja)',
|
25
28
|
functionCall: false,
|
26
29
|
id: 'solar-1-mini-chat-ja',
|
@@ -28,9 +31,13 @@ const Upstage: ModelProviderCard = {
|
|
28
31
|
},
|
29
32
|
],
|
30
33
|
checkModel: 'solar-1-mini-chat',
|
34
|
+
description:
|
35
|
+
'Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。',
|
31
36
|
id: 'upstage',
|
32
37
|
modelList: { showModelFetcher: true },
|
38
|
+
modelsUrl: 'https://developers.upstage.ai/docs/getting-started/models',
|
33
39
|
name: 'Upstage',
|
40
|
+
url: 'https://upstage.ai',
|
34
41
|
};
|
35
42
|
|
36
43
|
export default Upstage;
|
@@ -1,6 +1,6 @@
|
|
1
1
|
import { ModelProviderCard } from '@/types/llm';
|
2
2
|
|
3
|
-
// ref https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
|
3
|
+
// ref :https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
|
4
4
|
const ZeroOne: ModelProviderCard = {
|
5
5
|
chatModels: [
|
6
6
|
{
|
@@ -71,8 +71,12 @@ const ZeroOne: ModelProviderCard = {
|
|
71
71
|
},
|
72
72
|
],
|
73
73
|
checkModel: 'yi-spark',
|
74
|
+
description:
|
75
|
+
'01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。',
|
74
76
|
id: 'zeroone',
|
77
|
+
modelsUrl: 'https://platform.lingyiwanwu.com/docs',
|
75
78
|
name: '01.AI',
|
79
|
+
url: 'https://01.ai',
|
76
80
|
};
|
77
81
|
|
78
82
|
export default ZeroOne;
|