@lobehub/chat 1.16.8 → 1.16.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of @lobehub/chat might be problematic. Click here for more details.

Files changed (51) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/package.json +3 -3
  3. package/src/config/__tests__/auth.test.ts +200 -0
  4. package/src/config/auth.ts +97 -2
  5. package/src/config/modelProviders/ai360.ts +11 -0
  6. package/src/config/modelProviders/anthropic.ts +27 -18
  7. package/src/config/modelProviders/azure.ts +12 -3
  8. package/src/config/modelProviders/baichuan.ts +3 -1
  9. package/src/config/modelProviders/bedrock.ts +20 -18
  10. package/src/config/modelProviders/deepseek.ts +3 -1
  11. package/src/config/modelProviders/fireworksai.ts +33 -5
  12. package/src/config/modelProviders/google.ts +16 -13
  13. package/src/config/modelProviders/groq.ts +19 -8
  14. package/src/config/modelProviders/minimax.ts +8 -6
  15. package/src/config/modelProviders/mistral.ts +19 -3
  16. package/src/config/modelProviders/moonshot.ts +11 -1
  17. package/src/config/modelProviders/novita.ts +24 -0
  18. package/src/config/modelProviders/ollama.ts +58 -1
  19. package/src/config/modelProviders/openai.ts +52 -18
  20. package/src/config/modelProviders/openrouter.ts +21 -1
  21. package/src/config/modelProviders/perplexity.ts +19 -3
  22. package/src/config/modelProviders/qwen.ts +11 -8
  23. package/src/config/modelProviders/siliconcloud.ts +34 -1
  24. package/src/config/modelProviders/spark.ts +16 -7
  25. package/src/config/modelProviders/stepfun.ts +13 -1
  26. package/src/config/modelProviders/taichu.ts +7 -2
  27. package/src/config/modelProviders/togetherai.ts +38 -2
  28. package/src/config/modelProviders/upstage.ts +11 -4
  29. package/src/config/modelProviders/zeroone.ts +5 -1
  30. package/src/config/modelProviders/zhipu.ts +20 -18
  31. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +13 -6
  32. package/src/libs/agent-runtime/qwen/index.test.ts +20 -4
  33. package/src/libs/agent-runtime/qwen/index.ts +1 -1
  34. package/src/libs/next-auth/auth.config.ts +3 -1
  35. package/src/libs/next-auth/sso-providers/auth0.ts +5 -3
  36. package/src/libs/next-auth/sso-providers/authelia.ts +6 -6
  37. package/src/libs/next-auth/sso-providers/authentik.ts +5 -3
  38. package/src/libs/next-auth/sso-providers/azure-ad.ts +5 -3
  39. package/src/libs/next-auth/sso-providers/cloudflare-zero-trust.ts +4 -3
  40. package/src/libs/next-auth/sso-providers/generic-oidc.ts +3 -3
  41. package/src/libs/next-auth/sso-providers/github.ts +4 -2
  42. package/src/libs/next-auth/sso-providers/logto.ts +3 -3
  43. package/src/libs/next-auth/sso-providers/zitadel.ts +5 -3
  44. package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
  45. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +24 -4
  46. package/src/server/routers/edge/config/index.test.ts +3 -11
  47. package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
  48. package/src/store/user/slices/modelList/action.test.ts +3 -7
  49. package/src/types/llm.ts +1 -0
  50. package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
  51. package/src/utils/parseModels.test.ts +1 -28
@@ -1,175 +1,208 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://siliconflow.cn/zh-cn/models
3
+ // ref :https://siliconflow.cn/zh-cn/models
4
4
  const SiliconCloud: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description: 'Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。',
7
8
  displayName: 'Qwen2 1.5B',
8
9
  id: 'Qwen/Qwen2-1.5B-Instruct',
9
10
  tokens: 32_768,
10
11
  },
11
12
  {
13
+ description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
12
14
  displayName: 'Qwen2 7B',
13
15
  enabled: true,
14
16
  id: 'Qwen/Qwen2-7B-Instruct',
15
17
  tokens: 32_768,
16
18
  },
17
19
  {
20
+ description: 'Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。',
18
21
  displayName: 'Qwen2 57B A14B',
19
22
  id: 'Qwen/Qwen2-57B-A14B-Instruct',
20
23
  tokens: 32_768,
21
24
  },
22
25
  {
26
+ description: 'Qwen2 是先进的通用语言模型,支持多种指令类型。',
23
27
  displayName: 'Qwen2 72B',
24
28
  enabled: true,
25
29
  id: 'Qwen/Qwen2-72B-Instruct',
26
30
  tokens: 32_768,
27
31
  },
28
32
  {
33
+ description: 'Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。',
29
34
  displayName: 'Qwen2 Math 72B',
30
35
  enabled: true,
31
36
  id: 'Qwen/Qwen2-Math-72B-Instruct',
32
37
  tokens: 32_768,
33
38
  },
34
39
  {
40
+ description: 'Qwen1.5 通过结合高级预训练和微调提升对话表达能力。',
35
41
  displayName: 'Qwen1.5 7B',
36
42
  id: 'Qwen/Qwen1.5-7B-Chat',
37
43
  tokens: 32_768,
38
44
  },
39
45
  {
46
+ description: 'Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。',
40
47
  displayName: 'Qwen1.5 14B',
41
48
  id: 'Qwen/Qwen1.5-14B-Chat',
42
49
  tokens: 32_768,
43
50
  },
44
51
  {
52
+ description: 'Qwen1.5 具备多领域问答和文本生成的能力。',
45
53
  displayName: 'Qwen1.5 32B',
46
54
  id: 'Qwen/Qwen1.5-32B-Chat',
47
55
  tokens: 32_768,
48
56
  },
49
57
  {
58
+ description: '作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。',
50
59
  displayName: 'Qwen1.5 110B',
51
60
  id: 'Qwen/Qwen1.5-110B-Chat',
52
61
  tokens: 32_768,
53
62
  },
54
63
  {
64
+ description: 'Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。',
55
65
  displayName: 'Yi-1.5 6B',
56
66
  id: '01-ai/Yi-1.5-6B-Chat',
57
67
  tokens: 4096,
58
68
  },
59
69
  {
70
+ description: 'Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。',
60
71
  displayName: 'Yi-1.5 9B',
61
72
  enabled: true,
62
73
  id: '01-ai/Yi-1.5-9B-Chat-16K',
63
74
  tokens: 16_384,
64
75
  },
65
76
  {
77
+ description: 'Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。',
66
78
  displayName: 'Yi-1.5 34B',
67
79
  enabled: true,
68
80
  id: '01-ai/Yi-1.5-34B-Chat-16K',
69
81
  tokens: 16_384,
70
82
  },
71
83
  {
84
+ description: '作为双语会话语言模型, ChatGLM3能处理中英文转换任务。',
72
85
  displayName: 'GLM-3 6B',
73
86
  id: 'THUDM/chatglm3-6b',
74
87
  tokens: 32_768,
75
88
  },
76
89
  {
90
+ description: 'GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。',
77
91
  displayName: 'GLM-4 9B',
78
92
  enabled: true,
79
93
  id: 'THUDM/glm-4-9b-chat',
80
94
  tokens: 32_768,
81
95
  },
82
96
  {
97
+ description: 'InternLM2.5 提供多场景下的智能对话解决方案。',
83
98
  displayName: 'Internlm 2.5 7B',
84
99
  enabled: true,
85
100
  id: 'internlm/internlm2_5-7b-chat',
86
101
  tokens: 32_768,
87
102
  },
88
103
  {
104
+ description: '创新的开源模型InternLM2.5,通过大规模的参数提高了对话智能。',
89
105
  displayName: 'Internlm 2.5 20B',
90
106
  enabled: true,
91
107
  id: 'internlm/internlm2_5-20b-chat',
92
108
  tokens: 32_768,
93
109
  },
94
110
  {
111
+ description: 'DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。',
95
112
  displayName: 'DeepSeek V2.5',
96
113
  enabled: true,
97
114
  id: 'deepseek-ai/DeepSeek-V2.5',
98
115
  tokens: 32_768,
99
116
  },
100
117
  {
118
+ description: 'DeepSeek V2 具备67亿参数,支持英中文本处理。',
101
119
  displayName: 'DeepSeek V2 Chat',
102
120
  id: 'deepseek-ai/DeepSeek-V2-Chat',
103
121
  tokens: 32_768,
104
122
  },
105
123
  {
124
+ description: 'DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。',
106
125
  displayName: 'DeepSeek V2 Coder',
107
126
  id: 'deepseek-ai/DeepSeek-Coder-V2-Instruct',
108
127
  tokens: 32_768,
109
128
  },
110
129
  {
130
+ description: 'DeepSeek 67B 是为高复杂性对话训练的先进模型。',
111
131
  displayName: 'DeepSeek LLM 67B',
112
132
  id: 'deepseek-ai/deepseek-llm-67b-chat',
113
133
  tokens: 32_768,
114
134
  },
115
135
  {
136
+ description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
116
137
  displayName: 'Gemma 2 9B',
117
138
  enabled: true,
118
139
  id: 'google/gemma-2-9b-it',
119
140
  tokens: 8192,
120
141
  },
121
142
  {
143
+ description: 'Gemma 2 延续了轻量化与高效的设计理念。',
122
144
  displayName: 'Gemma 2 27B',
123
145
  enabled: true,
124
146
  id: 'google/gemma-2-27b-it',
125
147
  tokens: 8192,
126
148
  },
127
149
  {
150
+ description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
128
151
  displayName: 'Llama 3.1 8B',
129
152
  enabled: true,
130
153
  id: 'meta-llama/Meta-Llama-3.1-8B-Instruct',
131
154
  tokens: 32_768,
132
155
  },
133
156
  {
157
+ description: 'LLaMA 3.1 70B 提供多语言的高效对话支持。',
134
158
  displayName: 'Llama 3.1 70B',
135
159
  enabled: true,
136
160
  id: 'meta-llama/Meta-Llama-3.1-70B-Instruct',
137
161
  tokens: 32_768,
138
162
  },
139
163
  {
164
+ description: 'LLaMA 3.1 405B 是预训练和指令调整的强大机型。',
140
165
  displayName: 'Llama 3.1 405B',
141
166
  enabled: true,
142
167
  id: 'meta-llama/Meta-Llama-3.1-405B-Instruct',
143
168
  tokens: 32_768,
144
169
  },
145
170
  {
171
+ description: 'Reflection Llama 3.1 通过Reflection-Tuning技术提升推理能力。',
146
172
  displayName: 'Reflection Llama 3.1 70B',
147
173
  id: 'mattshumer/Reflection-Llama-3.1-70B',
148
174
  tokens: 32_768,
149
175
  },
150
176
  {
177
+ description: 'LLaMA 3 支持大容量文本生成和指令解析。',
151
178
  displayName: 'Llama 3 70B',
152
179
  id: 'meta-llama/Meta-Llama-3-70B-Instruct',
153
180
  tokens: 8192,
154
181
  },
155
182
  {
183
+ description: 'Mistral 7B 是按需 fine-tuning的模型,为任务提供优化解答。',
156
184
  displayName: 'Mistral 7B',
157
185
  id: 'mistralai/Mistral-7B-Instruct-v0.2',
158
186
  tokens: 32_768,
159
187
  },
160
188
  {
189
+ description: 'Mixtral 8x7B 是预训练的稀疏混合专家模型,用于通用性文本任务。',
161
190
  displayName: 'Mistral 8x7B',
162
191
  id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
163
192
  tokens: 32_768,
164
193
  },
165
194
  ],
166
195
  checkModel: 'Qwen/Qwen2-1.5B-Instruct',
196
+ description:
197
+ 'SiliconFlow 致力于加速 AGI,以惠及人类,通过易用与成本低的 GenAI 堆栈提升大规模 AI 效率。',
167
198
  id: 'siliconcloud',
168
199
  modelList: { showModelFetcher: true },
200
+ modelsUrl: 'https://siliconflow.cn/zh-cn/models',
169
201
  name: 'SiliconCloud',
170
202
  proxyUrl: {
171
203
  placeholder: 'https://api.siliconflow.cn/v1',
172
204
  },
205
+ url: 'https://siliconflow.cn',
173
206
  };
174
207
 
175
208
  export default SiliconCloud;
@@ -1,11 +1,12 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
4
- // ref https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
3
+ // ref: https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
4
+ // ref: https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
5
5
  const Spark: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
- description: '轻量级大语言模型,低延迟,全免费 支持在线联网搜索功能 响应快速、便捷,全面免费开放 适用于低算力推理与模型精调等定制化场景',
8
+ description:
9
+ 'Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。',
9
10
  displayName: 'Spark Lite',
10
11
  enabled: true,
11
12
  functionCall: false,
@@ -14,7 +15,8 @@ const Spark: ModelProviderCard = {
14
15
  tokens: 8192,
15
16
  },
16
17
  {
17
- description: '专业级大语言模型,兼顾模型效果与性能 数学、代码、医疗、教育等场景专项优化 支持联网搜索、天气、日期等多个内置插件 覆盖大部分知识问答、语言理解、文本创作等多个场景',
18
+ description:
19
+ 'Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。',
18
20
  displayName: 'Spark Pro',
19
21
  enabled: true,
20
22
  functionCall: false,
@@ -23,7 +25,8 @@ const Spark: ModelProviderCard = {
23
25
  tokens: 8192,
24
26
  },
25
27
  {
26
- description: '支持最长上下文的星火大模型,长文无忧 128K星火大模型强势来袭 通读全文,旁征博引 沟通无界,逻辑连贯',
28
+ description:
29
+ 'Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。',
27
30
  displayName: 'Spark Pro-128K',
28
31
  enabled: true,
29
32
  functionCall: false,
@@ -32,7 +35,8 @@ const Spark: ModelProviderCard = {
32
35
  tokens: 128_000,
33
36
  },
34
37
  {
35
- description: '最全面的星火大模型版本,功能丰富 支持联网搜索、天气、日期等多个内置插件 核心能力全面升级,各场景应用效果普遍提升 支持System角色人设与FunctionCall函数调用',
38
+ description:
39
+ 'Spark3.5 Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。',
36
40
  displayName: 'Spark3.5 Max',
37
41
  enabled: true,
38
42
  functionCall: false,
@@ -41,7 +45,8 @@ const Spark: ModelProviderCard = {
41
45
  tokens: 8192,
42
46
  },
43
47
  {
44
- description: '最强大的星火大模型版本,效果极佳 全方位提升效果,引领智能巅峰 优化联网搜索链路,提供精准回答 强化文本总结能力,提升办公生产力',
48
+ description:
49
+ 'Spark4.0 Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。',
45
50
  displayName: 'Spark4.0 Ultra',
46
51
  enabled: true,
47
52
  functionCall: false,
@@ -51,13 +56,17 @@ const Spark: ModelProviderCard = {
51
56
  },
52
57
  ],
53
58
  checkModel: 'general',
59
+ description:
60
+ '科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。',
54
61
  id: 'spark',
55
62
  modelList: { showModelFetcher: true },
63
+ modelsUrl: 'https://xinghuo.xfyun.cn/spark',
56
64
  name: 'Spark',
57
65
  smoothing: {
58
66
  speed: 2,
59
67
  text: true,
60
68
  },
69
+ url: 'https://www.xfyun.cn',
61
70
  };
62
71
 
63
72
  export default Spark;
@@ -1,45 +1,52 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://platform.stepfun.com/docs/llm/text
3
+ // ref: https://platform.stepfun.com/docs/llm/text
4
4
  // 根据文档,阶级星辰大模型的上下文长度,其 k 的含义均为 1000
5
5
  const Stepfun: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
+ description: '支持大规模上下文交互,适合复杂对话场景。',
8
9
  displayName: 'Step 2 16K',
9
10
  enabled: true,
10
11
  id: 'step-2-16k',
11
12
  tokens: 16_000,
12
13
  },
13
14
  {
15
+ description: '具备超长上下文处理能力,尤其适合长文档分析。',
14
16
  displayName: 'Step 1 256K',
15
17
  id: 'step-1-256k',
16
18
  tokens: 256_000,
17
19
  },
18
20
  {
21
+ description: '平衡性能与成本,适合一般场景。',
19
22
  displayName: 'Step 1 128K',
20
23
  enabled: true,
21
24
  id: 'step-1-128k',
22
25
  tokens: 128_000,
23
26
  },
24
27
  {
28
+ description: '支持中等长度的对话,适用于多种应用场景。',
25
29
  displayName: 'Step 1 32K',
26
30
  enabled: true,
27
31
  id: 'step-1-32k',
28
32
  tokens: 32_000,
29
33
  },
30
34
  {
35
+ description: '小型模型,适合轻量级任务。',
31
36
  displayName: 'Step 1 8K',
32
37
  enabled: true,
33
38
  id: 'step-1-8k',
34
39
  tokens: 8000,
35
40
  },
36
41
  {
42
+ description: '高速模型,适合实时对话。',
37
43
  displayName: 'Step 1 Flash',
38
44
  enabled: true,
39
45
  id: 'step-1-flash',
40
46
  tokens: 8000,
41
47
  },
42
48
  {
49
+ description: '支持视觉输入,增强多模态交互体验。',
43
50
  displayName: 'Step 1V 32K',
44
51
  enabled: true,
45
52
  id: 'step-1v-32k',
@@ -47,6 +54,7 @@ const Stepfun: ModelProviderCard = {
47
54
  vision: true,
48
55
  },
49
56
  {
57
+ description: '小型视觉模型,适合基本的图文任务。',
50
58
  displayName: 'Step 1V 8K',
51
59
  enabled: true,
52
60
  id: 'step-1v-8k',
@@ -55,16 +63,20 @@ const Stepfun: ModelProviderCard = {
55
63
  },
56
64
  ],
57
65
  checkModel: 'step-1-flash',
66
+ description:
67
+ '阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。',
58
68
  // after test, currently https://api.stepfun.com/v1/chat/completions has the CORS issue
59
69
  // So we should close the browser request mode
60
70
  disableBrowserRequest: true,
61
71
  id: 'stepfun',
62
72
  modelList: { showModelFetcher: true },
73
+ modelsUrl: 'https://platform.stepfun.com/docs/llm/text',
63
74
  name: 'Stepfun',
64
75
  smoothing: {
65
76
  speed: 2,
66
77
  text: true,
67
78
  },
79
+ url: 'https://stepfun.com',
68
80
  };
69
81
 
70
82
  export default Stepfun;
@@ -1,10 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://ai-maas.wair.ac.cn/#/doc
3
+ // ref :https://ai-maas.wair.ac.cn/#/doc
4
4
  const Taichu: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
- description: '语言大模型',
7
+ description:
8
+ '紫东太初语言大模型具备超强语言理解能力以及文本创作、知识问答、代码编程、数学计算、逻辑推理、情感分析、文本摘要等能力。创新性地将大数据预训练与多源丰富知识相结合,通过持续打磨算法技术,并不断吸收海量文本数据中词汇、结构、语法、语义等方面的新知识,实现模型效果不断进化。为用户提供更加便捷的信息和服务以及更为智能化的体验。',
8
9
  displayName: 'Taichu-2.0',
9
10
  enabled: true,
10
11
  functionCall: false,
@@ -13,9 +14,13 @@ const Taichu: ModelProviderCard = {
13
14
  },
14
15
  ],
15
16
  checkModel: 'taichu_llm',
17
+ description:
18
+ '中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。',
16
19
  id: 'taichu',
17
20
  modelList: { showModelFetcher: true },
21
+ modelsUrl: 'https://ai-maas.wair.ac.cn/#/doc',
18
22
  name: 'Taichu',
23
+ url: 'https://ai-maas.wair.ac.cn',
19
24
  };
20
25
 
21
26
  export default Taichu;
@@ -1,164 +1,200 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://docs.together.ai/docs/chat-models
4
- // ref https://www.together.ai/pricing
3
+ // ref :https://docs.together.ai/docs/chat-models
4
+ // ref :https://www.together.ai/pricing
5
5
  const TogetherAI: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
+ description:
9
+ 'Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。',
8
10
  displayName: 'Llama 3.1 8B Instruct Turbo',
9
11
  enabled: true,
10
12
  id: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
11
13
  tokens: 131_072,
12
14
  },
13
15
  {
16
+ description:
17
+ 'Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。',
14
18
  displayName: 'Llama 3.1 70B Instruct Turbo',
15
19
  enabled: true,
16
20
  id: 'meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo',
17
21
  tokens: 131_072,
18
22
  },
19
23
  {
24
+ description:
25
+ '405B 的 Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。',
20
26
  displayName: 'Llama 3.1 405B Instruct Turbo',
21
27
  enabled: true,
22
28
  id: 'meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo',
23
29
  tokens: 8192,
24
30
  },
25
31
  {
32
+ description: 'Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。',
26
33
  displayName: 'Llama 3 8B Instruct Turbo',
27
34
  id: 'meta-llama/Meta-Llama-3-8B-Instruct-Turbo',
28
35
  tokens: 8192,
29
36
  },
30
37
  {
38
+ description:
39
+ 'Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。',
31
40
  displayName: 'Llama 3 70B Instruct Turbo',
32
41
  id: 'meta-llama/Meta-Llama-3-70B-Instruct-Turbo',
33
42
  tokens: 8192,
34
43
  },
35
44
  {
45
+ description: 'Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。',
36
46
  displayName: 'Llama 3 8B Instruct Lite',
37
47
  id: 'meta-llama/Meta-Llama-3-8B-Instruct-Lite',
38
48
  tokens: 8192,
39
49
  },
40
50
  {
51
+ description: 'Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。',
41
52
  displayName: 'Llama 3 70B Instruct Lite',
42
53
  id: 'meta-llama/Meta-Llama-3-70B-Instruct-Lite',
43
54
  tokens: 8192,
44
55
  },
45
56
  {
57
+ description: 'LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。',
46
58
  displayName: 'LLaMA-3 Chat (8B)',
47
59
  id: 'meta-llama/Llama-3-8b-chat-hf',
48
60
  tokens: 8192,
49
61
  },
50
62
  {
63
+ description: 'LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。',
51
64
  displayName: 'LLaMA-3 Chat (70B)',
52
65
  id: 'meta-llama/Llama-3-70b-chat-hf',
53
66
  tokens: 8192,
54
67
  },
55
68
  {
69
+ description: 'LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。',
56
70
  displayName: 'LLaMA-2 Chat (13B)',
57
71
  id: 'meta-llama/Llama-2-13b-chat-hf',
58
72
  tokens: 4096,
59
73
  },
60
74
  {
75
+ description: 'Gemma 2 9B 由Google开发,提供高效的指令响应和综合能力。',
61
76
  displayName: 'Gemma 2 9B',
62
77
  enabled: true,
63
78
  id: 'google/gemma-2-9b-it',
64
79
  tokens: 8192,
65
80
  },
66
81
  {
82
+ description: 'Gemma 2 27B 是一款通用大语言模型,具有优异的性能和广泛的应用场景。',
67
83
  displayName: 'Gemma 2 27B',
68
84
  enabled: true,
69
85
  id: 'google/gemma-2-27b-it',
70
86
  tokens: 8192,
71
87
  },
72
88
  {
89
+ description: 'Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。',
73
90
  displayName: 'Gemma Instruct (2B)',
74
91
  id: 'google/gemma-2b-it',
75
92
  tokens: 8192,
76
93
  },
77
94
  {
95
+ description: 'Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。',
78
96
  displayName: 'Mistral (7B) Instruct v0.3',
79
97
  enabled: true,
80
98
  id: 'mistralai/Mistral-7B-Instruct-v0.3',
81
99
  tokens: 32_768,
82
100
  },
83
101
  {
102
+ description: 'Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。',
84
103
  displayName: 'Mistral (7B) Instruct v0.2',
85
104
  id: 'mistralai/Mistral-7B-Instruct-v0.2',
86
105
  tokens: 32_768,
87
106
  },
88
107
  {
108
+ description: 'Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。',
89
109
  displayName: 'Mistral (7B) Instruct',
90
110
  id: 'mistralai/Mistral-7B-Instruct-v0.1',
91
111
  tokens: 8192,
92
112
  },
93
113
  {
114
+ description: 'Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。',
94
115
  displayName: 'Mixtral-8x7B Instruct (46.7B)',
95
116
  enabled: true,
96
117
  id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
97
118
  tokens: 32_768,
98
119
  },
99
120
  {
121
+ description: 'Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。',
100
122
  displayName: 'Mixtral-8x22B Instruct (141B)',
101
123
  enabled: true,
102
124
  id: 'mistralai/Mixtral-8x22B-Instruct-v0.1',
103
125
  tokens: 65_536,
104
126
  },
105
127
  {
128
+ description: 'DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。',
106
129
  displayName: 'DeepSeek LLM Chat (67B)',
107
130
  enabled: true,
108
131
  id: 'deepseek-ai/deepseek-llm-67b-chat',
109
132
  tokens: 4096,
110
133
  },
111
134
  {
135
+ description: 'Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。',
112
136
  displayName: 'Qwen 2 Instruct (72B)',
113
137
  enabled: true,
114
138
  id: 'Qwen/Qwen2-72B-Instruct',
115
139
  tokens: 32_768,
116
140
  },
117
141
  {
142
+ description: 'Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。',
118
143
  displayName: 'Qwen 1.5 Chat (72B)',
119
144
  id: 'Qwen/Qwen1.5-72B-Chat',
120
145
  tokens: 32_768,
121
146
  },
122
147
  {
148
+ description: 'Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。',
123
149
  displayName: 'Qwen 1.5 Chat (110B)',
124
150
  id: 'Qwen/Qwen1.5-110B-Chat',
125
151
  tokens: 32_768,
126
152
  },
127
153
  {
154
+ description: 'DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。',
128
155
  displayName: 'DBRX Instruct',
129
156
  id: 'databricks/dbrx-instruct',
130
157
  tokens: 32_768,
131
158
  },
132
159
  {
160
+ description: 'Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。',
133
161
  displayName: 'Upstage SOLAR Instruct v1 (11B)',
134
162
  id: 'upstage/SOLAR-10.7B-Instruct-v1.0',
135
163
  tokens: 4096,
136
164
  },
137
165
  {
166
+ description: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。',
138
167
  displayName: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)',
139
168
  id: 'NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO',
140
169
  tokens: 32_768,
141
170
  },
142
171
  {
172
+ description: 'Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。',
143
173
  displayName: 'Nous Hermes-2 Yi (34B)',
144
174
  id: 'NousResearch/Nous-Hermes-2-Yi-34B',
145
175
  tokens: 4096,
146
176
  },
147
177
  {
178
+ description: 'MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。',
148
179
  displayName: 'MythoMax-L2 (13B)',
149
180
  id: 'Gryphe/MythoMax-L2-13b',
150
181
  tokens: 4096,
151
182
  },
152
183
  {
184
+ description: 'StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。',
153
185
  displayName: 'StripedHyena Nous (7B)',
154
186
  id: 'togethercomputer/StripedHyena-Nous-7B',
155
187
  tokens: 32_768,
156
188
  },
157
189
  ],
158
190
  checkModel: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
191
+ description:
192
+ 'Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。',
159
193
  id: 'togetherai',
160
194
  modelList: { showModelFetcher: true },
195
+ modelsUrl: 'https://docs.together.ai/docs/chat-models',
161
196
  name: 'Together AI',
197
+ url: 'https://www.together.ai',
162
198
  };
163
199
 
164
200
  export default TogetherAI;
@@ -1,10 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://developers.upstage.ai/docs/getting-started/models
3
+ // ref :https://developers.upstage.ai/docs/getting-started/models
4
4
  const Upstage: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
- description: 'A more intelligent, instruction-following Solar LLM with IFEval 80+. The official version with expanded language support and longer context length will be released in November 2024. solar-pro supports English only at this time. solar-pro is an alias for our latest Solar Pro model. (Currently solar-pro-preview-240910)',
7
+ description:
8
+ 'Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。',
8
9
  displayName: 'Solar Pro',
9
10
  enabled: true,
10
11
  functionCall: false,
@@ -12,7 +13,8 @@ const Upstage: ModelProviderCard = {
12
13
  tokens: 4096,
13
14
  },
14
15
  {
15
- description: 'A compact LLM offering superior performance to GPT-3.5, with robust multilingual capabilities for both English and Korean, delivering high efficiency in a smaller package. solar-1-mini-chat is alias for our latest solar-1-mini-chat model. (Currently solar-1-mini-chat-240612)',
16
+ description:
17
+ 'Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。',
16
18
  displayName: 'Solar Mini',
17
19
  enabled: true,
18
20
  functionCall: true,
@@ -20,7 +22,8 @@ const Upstage: ModelProviderCard = {
20
22
  tokens: 32_768,
21
23
  },
22
24
  {
23
- description: 'A compact LLM that extends the capabilities of solar-mini-chat with specialization in Japanese, while maintaining high efficiency and performance in English and Korean. solar-1-mini-chat-ja is alias for our latest solar-1-mini-chat-ja model.(Currently solar-1-mini-chat-ja-240612)',
25
+ description:
26
+ 'Solar Mini (Ja) 扩展了 Solar Mini 的能力,专注于日语,同时在英语和韩语的使用中保持高效和卓越性能。',
24
27
  displayName: 'Solar Mini (Ja)',
25
28
  functionCall: false,
26
29
  id: 'solar-1-mini-chat-ja',
@@ -28,9 +31,13 @@ const Upstage: ModelProviderCard = {
28
31
  },
29
32
  ],
30
33
  checkModel: 'solar-1-mini-chat',
34
+ description:
35
+ 'Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。',
31
36
  id: 'upstage',
32
37
  modelList: { showModelFetcher: true },
38
+ modelsUrl: 'https://developers.upstage.ai/docs/getting-started/models',
33
39
  name: 'Upstage',
40
+ url: 'https://upstage.ai',
34
41
  };
35
42
 
36
43
  export default Upstage;
@@ -1,6 +1,6 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
3
+ // ref :https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
4
4
  const ZeroOne: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
@@ -71,8 +71,12 @@ const ZeroOne: ModelProviderCard = {
71
71
  },
72
72
  ],
73
73
  checkModel: 'yi-spark',
74
+ description:
75
+ '01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。',
74
76
  id: 'zeroone',
77
+ modelsUrl: 'https://platform.lingyiwanwu.com/docs',
75
78
  name: '01.AI',
79
+ url: 'https://01.ai',
76
80
  };
77
81
 
78
82
  export default ZeroOne;