@lobehub/chat 1.16.7 → 1.16.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of @lobehub/chat might be problematic. Click here for more details.

Files changed (40) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/package.json +1 -1
  5. package/src/config/modelProviders/ai360.ts +34 -68
  6. package/src/config/modelProviders/anthropic.ts +57 -11
  7. package/src/config/modelProviders/azure.ts +12 -3
  8. package/src/config/modelProviders/baichuan.ts +33 -12
  9. package/src/config/modelProviders/bedrock.ts +88 -25
  10. package/src/config/modelProviders/deepseek.ts +14 -3
  11. package/src/config/modelProviders/fireworksai.ts +37 -5
  12. package/src/config/modelProviders/google.ts +69 -15
  13. package/src/config/modelProviders/groq.ts +55 -5
  14. package/src/config/modelProviders/minimax.ts +10 -6
  15. package/src/config/modelProviders/mistral.ts +19 -3
  16. package/src/config/modelProviders/moonshot.ts +11 -1
  17. package/src/config/modelProviders/novita.ts +24 -0
  18. package/src/config/modelProviders/ollama.ts +58 -1
  19. package/src/config/modelProviders/openai.ts +153 -18
  20. package/src/config/modelProviders/openrouter.ts +21 -1
  21. package/src/config/modelProviders/perplexity.ts +19 -3
  22. package/src/config/modelProviders/qwen.ts +11 -8
  23. package/src/config/modelProviders/siliconcloud.ts +34 -1
  24. package/src/config/modelProviders/spark.ts +16 -7
  25. package/src/config/modelProviders/stepfun.ts +13 -1
  26. package/src/config/modelProviders/taichu.ts +7 -2
  27. package/src/config/modelProviders/togetherai.ts +38 -2
  28. package/src/config/modelProviders/upstage.ts +11 -4
  29. package/src/config/modelProviders/zeroone.ts +5 -1
  30. package/src/config/modelProviders/zhipu.ts +20 -18
  31. package/src/const/discover.ts +1 -0
  32. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +69 -6
  33. package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
  34. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +56 -4
  35. package/src/server/routers/edge/config/index.test.ts +3 -7
  36. package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
  37. package/src/store/user/slices/modelList/action.test.ts +3 -7
  38. package/src/types/llm.ts +30 -1
  39. package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
  40. package/src/utils/parseModels.test.ts +1 -20
@@ -1,9 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://openrouter.ai/docs#models
3
+ // ref :https://openrouter.ai/docs#models
4
4
  const OpenRouter: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description:
8
+ '根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。',
7
9
  displayName: 'Auto (best for prompt)',
8
10
  enabled: true,
9
11
  functionCall: false,
@@ -12,6 +14,8 @@ const OpenRouter: ModelProviderCard = {
12
14
  vision: false,
13
15
  },
14
16
  {
17
+ description:
18
+ 'Mistral 7B Instruct 是一款高效的多语言模型,优化用于对话和问答,能在资源受限的环境中表现出色。',
15
19
  displayName: 'Mistral 7B Instruct (free)',
16
20
  enabled: true,
17
21
  functionCall: false,
@@ -20,6 +24,7 @@ const OpenRouter: ModelProviderCard = {
20
24
  vision: false,
21
25
  },
22
26
  {
27
+ description: 'Google 的 Gemma 7B 具有出色的计算效率,适适用于多种硬件架构,如GPU和TPU。',
23
28
  displayName: 'Google: Gemma 7B (free)',
24
29
  enabled: true,
25
30
  functionCall: false,
@@ -28,6 +33,7 @@ const OpenRouter: ModelProviderCard = {
28
33
  vision: false,
29
34
  },
30
35
  {
36
+ description: 'OpenChat 3.5 是一个创新的开源语言模型库,使用C-RLFT策略优化,支持多种任务。',
31
37
  displayName: 'OpenChat 3.5 (free)',
32
38
  enabled: true,
33
39
  functionCall: false,
@@ -36,6 +42,7 @@ const OpenRouter: ModelProviderCard = {
36
42
  vision: false,
37
43
  },
38
44
  {
45
+ description: 'Nous Capybara 7B 专为基础任务设计,提供高效的语言处理能力。',
39
46
  displayName: 'Nous: Capybara 7B (free)',
40
47
  enabled: true,
41
48
  functionCall: false,
@@ -44,6 +51,7 @@ const OpenRouter: ModelProviderCard = {
44
51
  vision: false,
45
52
  },
46
53
  {
54
+ description: 'Hugging Face的Zephyr 7B,以小巧身形实现了超越许多大型模型的性能。',
47
55
  displayName: 'Hugging Face: Zephyr 7B (free)',
48
56
  enabled: true,
49
57
  functionCall: false,
@@ -52,6 +60,7 @@ const OpenRouter: ModelProviderCard = {
52
60
  vision: false,
53
61
  },
54
62
  {
63
+ description: 'MythoMist 7B 为实验性最强的Mistral合并模型,结合了最新算法。',
55
64
  displayName: 'MythoMist 7B (free)',
56
65
  enabled: true,
57
66
  functionCall: false,
@@ -60,6 +69,7 @@ const OpenRouter: ModelProviderCard = {
60
69
  vision: false,
61
70
  },
62
71
  {
72
+ description: 'Toppy M 7B 是一个开源模型,旨在通过开源科学推进人工智能的普及。',
63
73
  displayName: 'Toppy M 7B (free)',
64
74
  enabled: true,
65
75
  functionCall: false,
@@ -68,6 +78,7 @@ const OpenRouter: ModelProviderCard = {
68
78
  vision: false,
69
79
  },
70
80
  {
81
+ description: 'Cinematika 7B 模型将电影剧本转换为小说风格,适用于创意内容生成。',
71
82
  displayName: 'Cinematika 7B (alpha) (free)',
72
83
  enabled: true,
73
84
  functionCall: false,
@@ -76,6 +87,7 @@ const OpenRouter: ModelProviderCard = {
76
87
  vision: false,
77
88
  },
78
89
  {
90
+ description: 'RWKV v5 World 3B 结合了 RNN 和 Transformer,实现了卓越的多语言处理能力。',
79
91
  displayName: 'RWKV v5 World 3B (free)',
80
92
  enabled: true,
81
93
  functionCall: false,
@@ -84,6 +96,7 @@ const OpenRouter: ModelProviderCard = {
84
96
  vision: false,
85
97
  },
86
98
  {
99
+ description: 'RWKV v5 3B AI Town 是为 AI 小镇项目前置量身定制的模型。',
87
100
  displayName: 'RWKV v5 3B AI Town (free)',
88
101
  enabled: true,
89
102
  functionCall: false,
@@ -92,6 +105,7 @@ const OpenRouter: ModelProviderCard = {
92
105
  vision: false,
93
106
  },
94
107
  {
108
+ description: 'RWKV v5 Eagle 7B 以超小成本实现高效的多语言翻译和处理,适用于边缘计算。',
95
109
  displayName: 'RWKV v5: Eagle 7B (free)',
96
110
  enabled: true,
97
111
  functionCall: false,
@@ -100,6 +114,7 @@ const OpenRouter: ModelProviderCard = {
100
114
  vision: false,
101
115
  },
102
116
  {
117
+ description: 'Mistral Mixtral 8x22B 提供高性能的基础模型。',
103
118
  displayName: 'Mistral: Mixtral 8x22B (base)',
104
119
  enabled: true,
105
120
  functionCall: false,
@@ -108,6 +123,7 @@ const OpenRouter: ModelProviderCard = {
108
123
  vision: false,
109
124
  },
110
125
  {
126
+ description: '微软的 WizardLM-2 8x22B 具有高容量和高效能特性。',
111
127
  displayName: 'Microsoft: WizardLM-2 8x22B',
112
128
  enabled: true,
113
129
  functionCall: false,
@@ -117,9 +133,13 @@ const OpenRouter: ModelProviderCard = {
117
133
  },
118
134
  ],
119
135
  checkModel: 'mistralai/mistral-7b-instruct:free',
136
+ description:
137
+ 'OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多,适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格,助力AI体验的提升。',
120
138
  id: 'openrouter',
121
139
  modelList: { showModelFetcher: true },
140
+ modelsUrl: 'https://openrouter.ai/models',
122
141
  name: 'OpenRouter',
142
+ url: 'https://openrouter.ai',
123
143
  };
124
144
 
125
145
  export default OpenRouter;
@@ -1,55 +1,71 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://docs.perplexity.ai/docs/model-cards
3
+ // ref :https://docs.perplexity.ai/docs/model-cards
4
4
  const Perplexity: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description:
8
+ 'Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。',
7
9
  displayName: 'Llama 3.1 Sonar Small Online',
8
10
  enabled: true,
9
11
  id: 'llama-3.1-sonar-small-128k-online',
10
12
  tokens: 128_000,
11
13
  },
12
14
  {
15
+ description:
16
+ 'Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。',
13
17
  displayName: 'Llama 3.1 Sonar Large Online',
14
18
  enabled: true,
15
19
  id: 'llama-3.1-sonar-large-128k-online',
16
20
  tokens: 128_000,
17
21
  },
18
22
  {
23
+ description:
24
+ 'Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。',
19
25
  displayName: 'Llama 3.1 Sonar Huge Online',
20
26
  enabled: true,
21
27
  id: 'llama-3.1-sonar-huge-128k-online',
22
28
  tokens: 128_000,
23
29
  },
24
30
  {
31
+ description:
32
+ 'Llama 3.1 Sonar Small Chat 模型,具备8B参数,专为离线聊天设计,支持约127,000个标记的上下文长度。',
25
33
  displayName: 'Llama 3.1 Sonar Small Chat',
26
34
  enabled: true,
27
35
  id: 'llama-3.1-sonar-small-128k-chat',
28
36
  tokens: 128_000,
29
37
  },
30
38
  {
39
+ description:
40
+ 'Llama 3.1 Sonar Large Chat 模型,具备70B参数,支持约127,000个标记的上下文长度,适合于复杂的离线聊天任务。',
31
41
  displayName: 'Llama 3.1 Sonar Large Chat',
32
42
  enabled: true,
33
43
  id: 'llama-3.1-sonar-large-128k-chat',
34
44
  tokens: 128_000,
35
45
  },
36
46
  {
37
- displayName: 'Llama 3.1 8B Instruct',
47
+ description:
48
+ 'Llama 3.1 8B Instruct 模型,具备8B参数,支持画面指示任务的高效执行,提供优质的文本生成能力。',
38
49
  id: 'llama-3.1-8b-instruct',
39
50
  tokens: 128_000,
40
51
  },
41
52
  {
42
- displayName: 'Llama 3.1 70B Instruct',
53
+ description:
54
+ 'Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。',
43
55
  id: 'llama-3.1-70b-instruct',
44
56
  tokens: 128_000,
45
57
  },
46
58
  ],
47
59
  checkModel: 'llama-3.1-8b-instruct',
60
+ description:
61
+ 'Perplexity 是一家领先的对话生成模型提供商,提供多种先进的Llama 3.1模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。',
48
62
  id: 'perplexity',
63
+ modelsUrl: 'https://docs.perplexity.ai/guides/model-cards',
49
64
  name: 'Perplexity',
50
65
  proxyUrl: {
51
66
  placeholder: 'https://api.perplexity.ai',
52
67
  },
68
+ url: 'https://www.perplexity.ai',
53
69
  };
54
70
 
55
71
  export default Perplexity;
@@ -1,10 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://help.aliyun.com/zh/dashscope/developer-reference/api-details
3
+ // ref :https://help.aliyun.com/zh/dashscope/developer-reference/api-details
4
4
  const Qwen: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
- description: '通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。',
7
+ description:
8
+ '通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。',
8
9
  displayName: 'Qwen Long',
9
10
  enabled: true,
10
11
  id: 'qwen-long',
@@ -61,7 +62,7 @@ const Qwen: ModelProviderCard = {
61
62
  tokens: 32_768,
62
63
  vision: true,
63
64
  },
64
- // ref https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-7b-14b-72b-api-detailes
65
+ // ref :https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-7b-14b-72b-api-detailes
65
66
  {
66
67
  description: '通义千问2对外开源的7B规模的模型',
67
68
  displayName: 'Qwen2 7B',
@@ -87,16 +88,14 @@ const Qwen: ModelProviderCard = {
87
88
  tokens: 4096, // https://help.aliyun.com/zh/dashscope/developer-reference/use-qwen2-math-by-calling-api
88
89
  },
89
90
  {
90
- description:
91
- '以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。',
91
+ description: '以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。',
92
92
  displayName: 'Qwen VL',
93
93
  id: 'qwen-vl-v1',
94
94
  tokens: 8192, // https://huggingface.co/Qwen/Qwen-VL/blob/main/config.json
95
95
  vision: true,
96
96
  },
97
97
  {
98
- description:
99
- '通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。',
98
+ description: '通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。',
100
99
  displayName: 'Qwen VL Chat',
101
100
  id: 'qwen-vl-chat-v1',
102
101
  tokens: 8192, // https://huggingface.co/Qwen/Qwen-VL-Chat/blob/main/config.json
@@ -104,14 +103,18 @@ const Qwen: ModelProviderCard = {
104
103
  },
105
104
  ],
106
105
  checkModel: 'qwen-turbo',
107
- disableBrowserRequest: true, // CORS issue
106
+ description:
107
+ '通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。',
108
+ disableBrowserRequest: true,
108
109
  id: 'qwen',
109
110
  modelList: { showModelFetcher: true },
111
+ modelsUrl: 'https://help.aliyun.com/zh/dashscope/developer-reference/api-details',
110
112
  name: 'Qwen',
111
113
  smoothing: {
112
114
  speed: 2,
113
115
  text: true,
114
116
  },
117
+ url: 'https://tongyi.aliyun.com',
115
118
  };
116
119
 
117
120
  export default Qwen;
@@ -1,175 +1,208 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://siliconflow.cn/zh-cn/models
3
+ // ref :https://siliconflow.cn/zh-cn/models
4
4
  const SiliconCloud: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description: 'Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。',
7
8
  displayName: 'Qwen2 1.5B',
8
9
  id: 'Qwen/Qwen2-1.5B-Instruct',
9
10
  tokens: 32_768,
10
11
  },
11
12
  {
13
+ description: 'Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。',
12
14
  displayName: 'Qwen2 7B',
13
15
  enabled: true,
14
16
  id: 'Qwen/Qwen2-7B-Instruct',
15
17
  tokens: 32_768,
16
18
  },
17
19
  {
20
+ description: 'Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。',
18
21
  displayName: 'Qwen2 57B A14B',
19
22
  id: 'Qwen/Qwen2-57B-A14B-Instruct',
20
23
  tokens: 32_768,
21
24
  },
22
25
  {
26
+ description: 'Qwen2 是先进的通用语言模型,支持多种指令类型。',
23
27
  displayName: 'Qwen2 72B',
24
28
  enabled: true,
25
29
  id: 'Qwen/Qwen2-72B-Instruct',
26
30
  tokens: 32_768,
27
31
  },
28
32
  {
33
+ description: 'Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。',
29
34
  displayName: 'Qwen2 Math 72B',
30
35
  enabled: true,
31
36
  id: 'Qwen/Qwen2-Math-72B-Instruct',
32
37
  tokens: 32_768,
33
38
  },
34
39
  {
40
+ description: 'Qwen1.5 通过结合高级预训练和微调提升对话表达能力。',
35
41
  displayName: 'Qwen1.5 7B',
36
42
  id: 'Qwen/Qwen1.5-7B-Chat',
37
43
  tokens: 32_768,
38
44
  },
39
45
  {
46
+ description: 'Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。',
40
47
  displayName: 'Qwen1.5 14B',
41
48
  id: 'Qwen/Qwen1.5-14B-Chat',
42
49
  tokens: 32_768,
43
50
  },
44
51
  {
52
+ description: 'Qwen1.5 具备多领域问答和文本生成的能力。',
45
53
  displayName: 'Qwen1.5 32B',
46
54
  id: 'Qwen/Qwen1.5-32B-Chat',
47
55
  tokens: 32_768,
48
56
  },
49
57
  {
58
+ description: '作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。',
50
59
  displayName: 'Qwen1.5 110B',
51
60
  id: 'Qwen/Qwen1.5-110B-Chat',
52
61
  tokens: 32_768,
53
62
  },
54
63
  {
64
+ description: 'Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。',
55
65
  displayName: 'Yi-1.5 6B',
56
66
  id: '01-ai/Yi-1.5-6B-Chat',
57
67
  tokens: 4096,
58
68
  },
59
69
  {
70
+ description: 'Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。',
60
71
  displayName: 'Yi-1.5 9B',
61
72
  enabled: true,
62
73
  id: '01-ai/Yi-1.5-9B-Chat-16K',
63
74
  tokens: 16_384,
64
75
  },
65
76
  {
77
+ description: 'Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。',
66
78
  displayName: 'Yi-1.5 34B',
67
79
  enabled: true,
68
80
  id: '01-ai/Yi-1.5-34B-Chat-16K',
69
81
  tokens: 16_384,
70
82
  },
71
83
  {
84
+ description: '作为双语会话语言模型, ChatGLM3能处理中英文转换任务。',
72
85
  displayName: 'GLM-3 6B',
73
86
  id: 'THUDM/chatglm3-6b',
74
87
  tokens: 32_768,
75
88
  },
76
89
  {
90
+ description: 'GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。',
77
91
  displayName: 'GLM-4 9B',
78
92
  enabled: true,
79
93
  id: 'THUDM/glm-4-9b-chat',
80
94
  tokens: 32_768,
81
95
  },
82
96
  {
97
+ description: 'InternLM2.5 提供多场景下的智能对话解决方案。',
83
98
  displayName: 'Internlm 2.5 7B',
84
99
  enabled: true,
85
100
  id: 'internlm/internlm2_5-7b-chat',
86
101
  tokens: 32_768,
87
102
  },
88
103
  {
104
+ description: '创新的开源模型InternLM2.5,通过大规模的参数提高了对话智能。',
89
105
  displayName: 'Internlm 2.5 20B',
90
106
  enabled: true,
91
107
  id: 'internlm/internlm2_5-20b-chat',
92
108
  tokens: 32_768,
93
109
  },
94
110
  {
111
+ description: 'DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。',
95
112
  displayName: 'DeepSeek V2.5',
96
113
  enabled: true,
97
114
  id: 'deepseek-ai/DeepSeek-V2.5',
98
115
  tokens: 32_768,
99
116
  },
100
117
  {
118
+ description: 'DeepSeek V2 具备67亿参数,支持英中文本处理。',
101
119
  displayName: 'DeepSeek V2 Chat',
102
120
  id: 'deepseek-ai/DeepSeek-V2-Chat',
103
121
  tokens: 32_768,
104
122
  },
105
123
  {
124
+ description: 'DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。',
106
125
  displayName: 'DeepSeek V2 Coder',
107
126
  id: 'deepseek-ai/DeepSeek-Coder-V2-Instruct',
108
127
  tokens: 32_768,
109
128
  },
110
129
  {
130
+ description: 'DeepSeek 67B 是为高复杂性对话训练的先进模型。',
111
131
  displayName: 'DeepSeek LLM 67B',
112
132
  id: 'deepseek-ai/deepseek-llm-67b-chat',
113
133
  tokens: 32_768,
114
134
  },
115
135
  {
136
+ description: 'Gemma 2 是Google轻量化的开源文本模型系列。',
116
137
  displayName: 'Gemma 2 9B',
117
138
  enabled: true,
118
139
  id: 'google/gemma-2-9b-it',
119
140
  tokens: 8192,
120
141
  },
121
142
  {
143
+ description: 'Gemma 2 延续了轻量化与高效的设计理念。',
122
144
  displayName: 'Gemma 2 27B',
123
145
  enabled: true,
124
146
  id: 'google/gemma-2-27b-it',
125
147
  tokens: 8192,
126
148
  },
127
149
  {
150
+ description: 'LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。',
128
151
  displayName: 'Llama 3.1 8B',
129
152
  enabled: true,
130
153
  id: 'meta-llama/Meta-Llama-3.1-8B-Instruct',
131
154
  tokens: 32_768,
132
155
  },
133
156
  {
157
+ description: 'LLaMA 3.1 70B 提供多语言的高效对话支持。',
134
158
  displayName: 'Llama 3.1 70B',
135
159
  enabled: true,
136
160
  id: 'meta-llama/Meta-Llama-3.1-70B-Instruct',
137
161
  tokens: 32_768,
138
162
  },
139
163
  {
164
+ description: 'LLaMA 3.1 405B 是预训练和指令调整的强大机型。',
140
165
  displayName: 'Llama 3.1 405B',
141
166
  enabled: true,
142
167
  id: 'meta-llama/Meta-Llama-3.1-405B-Instruct',
143
168
  tokens: 32_768,
144
169
  },
145
170
  {
171
+ description: 'Reflection Llama 3.1 通过Reflection-Tuning技术提升推理能力。',
146
172
  displayName: 'Reflection Llama 3.1 70B',
147
173
  id: 'mattshumer/Reflection-Llama-3.1-70B',
148
174
  tokens: 32_768,
149
175
  },
150
176
  {
177
+ description: 'LLaMA 3 支持大容量文本生成和指令解析。',
151
178
  displayName: 'Llama 3 70B',
152
179
  id: 'meta-llama/Meta-Llama-3-70B-Instruct',
153
180
  tokens: 8192,
154
181
  },
155
182
  {
183
+ description: 'Mistral 7B 是按需 fine-tuning的模型,为任务提供优化解答。',
156
184
  displayName: 'Mistral 7B',
157
185
  id: 'mistralai/Mistral-7B-Instruct-v0.2',
158
186
  tokens: 32_768,
159
187
  },
160
188
  {
189
+ description: 'Mixtral 8x7B 是预训练的稀疏混合专家模型,用于通用性文本任务。',
161
190
  displayName: 'Mistral 8x7B',
162
191
  id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
163
192
  tokens: 32_768,
164
193
  },
165
194
  ],
166
195
  checkModel: 'Qwen/Qwen2-1.5B-Instruct',
196
+ description:
197
+ 'SiliconFlow 致力于加速 AGI,以惠及人类,通过易用与成本低的 GenAI 堆栈提升大规模 AI 效率。',
167
198
  id: 'siliconcloud',
168
199
  modelList: { showModelFetcher: true },
200
+ modelsUrl: 'https://siliconflow.cn/zh-cn/models',
169
201
  name: 'SiliconCloud',
170
202
  proxyUrl: {
171
203
  placeholder: 'https://api.siliconflow.cn/v1',
172
204
  },
205
+ url: 'https://siliconflow.cn',
173
206
  };
174
207
 
175
208
  export default SiliconCloud;
@@ -1,11 +1,12 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
4
- // ref https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
3
+ // ref: https://www.xfyun.cn/doc/spark/HTTP%E8%B0%83%E7%94%A8%E6%96%87%E6%A1%A3.html#_3-%E8%AF%B7%E6%B1%82%E8%AF%B4%E6%98%8E
4
+ // ref: https://www.xfyun.cn/doc/spark/Web.html#_1-%E6%8E%A5%E5%8F%A3%E8%AF%B4%E6%98%8E
5
5
  const Spark: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
- description: '轻量级大语言模型,低延迟,全免费 支持在线联网搜索功能 响应快速、便捷,全面免费开放 适用于低算力推理与模型精调等定制化场景',
8
+ description:
9
+ 'Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。',
9
10
  displayName: 'Spark Lite',
10
11
  enabled: true,
11
12
  functionCall: false,
@@ -14,7 +15,8 @@ const Spark: ModelProviderCard = {
14
15
  tokens: 8192,
15
16
  },
16
17
  {
17
- description: '专业级大语言模型,兼顾模型效果与性能 数学、代码、医疗、教育等场景专项优化 支持联网搜索、天气、日期等多个内置插件 覆盖大部分知识问答、语言理解、文本创作等多个场景',
18
+ description:
19
+ 'Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。',
18
20
  displayName: 'Spark Pro',
19
21
  enabled: true,
20
22
  functionCall: false,
@@ -23,7 +25,8 @@ const Spark: ModelProviderCard = {
23
25
  tokens: 8192,
24
26
  },
25
27
  {
26
- description: '支持最长上下文的星火大模型,长文无忧 128K星火大模型强势来袭 通读全文,旁征博引 沟通无界,逻辑连贯',
28
+ description:
29
+ 'Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。',
27
30
  displayName: 'Spark Pro-128K',
28
31
  enabled: true,
29
32
  functionCall: false,
@@ -32,7 +35,8 @@ const Spark: ModelProviderCard = {
32
35
  tokens: 128_000,
33
36
  },
34
37
  {
35
- description: '最全面的星火大模型版本,功能丰富 支持联网搜索、天气、日期等多个内置插件 核心能力全面升级,各场景应用效果普遍提升 支持System角色人设与FunctionCall函数调用',
38
+ description:
39
+ 'Spark3.5 Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。',
36
40
  displayName: 'Spark3.5 Max',
37
41
  enabled: true,
38
42
  functionCall: false,
@@ -41,7 +45,8 @@ const Spark: ModelProviderCard = {
41
45
  tokens: 8192,
42
46
  },
43
47
  {
44
- description: '最强大的星火大模型版本,效果极佳 全方位提升效果,引领智能巅峰 优化联网搜索链路,提供精准回答 强化文本总结能力,提升办公生产力',
48
+ description:
49
+ 'Spark4.0 Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。',
45
50
  displayName: 'Spark4.0 Ultra',
46
51
  enabled: true,
47
52
  functionCall: false,
@@ -51,13 +56,17 @@ const Spark: ModelProviderCard = {
51
56
  },
52
57
  ],
53
58
  checkModel: 'general',
59
+ description:
60
+ '科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。',
54
61
  id: 'spark',
55
62
  modelList: { showModelFetcher: true },
63
+ modelsUrl: 'https://xinghuo.xfyun.cn/spark',
56
64
  name: 'Spark',
57
65
  smoothing: {
58
66
  speed: 2,
59
67
  text: true,
60
68
  },
69
+ url: 'https://www.xfyun.cn',
61
70
  };
62
71
 
63
72
  export default Spark;
@@ -1,45 +1,52 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://platform.stepfun.com/docs/llm/text
3
+ // ref: https://platform.stepfun.com/docs/llm/text
4
4
  // 根据文档,阶级星辰大模型的上下文长度,其 k 的含义均为 1000
5
5
  const Stepfun: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
+ description: '支持大规模上下文交互,适合复杂对话场景。',
8
9
  displayName: 'Step 2 16K',
9
10
  enabled: true,
10
11
  id: 'step-2-16k',
11
12
  tokens: 16_000,
12
13
  },
13
14
  {
15
+ description: '具备超长上下文处理能力,尤其适合长文档分析。',
14
16
  displayName: 'Step 1 256K',
15
17
  id: 'step-1-256k',
16
18
  tokens: 256_000,
17
19
  },
18
20
  {
21
+ description: '平衡性能与成本,适合一般场景。',
19
22
  displayName: 'Step 1 128K',
20
23
  enabled: true,
21
24
  id: 'step-1-128k',
22
25
  tokens: 128_000,
23
26
  },
24
27
  {
28
+ description: '支持中等长度的对话,适用于多种应用场景。',
25
29
  displayName: 'Step 1 32K',
26
30
  enabled: true,
27
31
  id: 'step-1-32k',
28
32
  tokens: 32_000,
29
33
  },
30
34
  {
35
+ description: '小型模型,适合轻量级任务。',
31
36
  displayName: 'Step 1 8K',
32
37
  enabled: true,
33
38
  id: 'step-1-8k',
34
39
  tokens: 8000,
35
40
  },
36
41
  {
42
+ description: '高速模型,适合实时对话。',
37
43
  displayName: 'Step 1 Flash',
38
44
  enabled: true,
39
45
  id: 'step-1-flash',
40
46
  tokens: 8000,
41
47
  },
42
48
  {
49
+ description: '支持视觉输入,增强多模态交互体验。',
43
50
  displayName: 'Step 1V 32K',
44
51
  enabled: true,
45
52
  id: 'step-1v-32k',
@@ -47,6 +54,7 @@ const Stepfun: ModelProviderCard = {
47
54
  vision: true,
48
55
  },
49
56
  {
57
+ description: '小型视觉模型,适合基本的图文任务。',
50
58
  displayName: 'Step 1V 8K',
51
59
  enabled: true,
52
60
  id: 'step-1v-8k',
@@ -55,16 +63,20 @@ const Stepfun: ModelProviderCard = {
55
63
  },
56
64
  ],
57
65
  checkModel: 'step-1-flash',
66
+ description:
67
+ '阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。',
58
68
  // after test, currently https://api.stepfun.com/v1/chat/completions has the CORS issue
59
69
  // So we should close the browser request mode
60
70
  disableBrowserRequest: true,
61
71
  id: 'stepfun',
62
72
  modelList: { showModelFetcher: true },
73
+ modelsUrl: 'https://platform.stepfun.com/docs/llm/text',
63
74
  name: 'Stepfun',
64
75
  smoothing: {
65
76
  speed: 2,
66
77
  text: true,
67
78
  },
79
+ url: 'https://stepfun.com',
68
80
  };
69
81
 
70
82
  export default Stepfun;
@@ -1,10 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://ai-maas.wair.ac.cn/#/doc
3
+ // ref :https://ai-maas.wair.ac.cn/#/doc
4
4
  const Taichu: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
- description: '语言大模型',
7
+ description:
8
+ '紫东太初语言大模型具备超强语言理解能力以及文本创作、知识问答、代码编程、数学计算、逻辑推理、情感分析、文本摘要等能力。创新性地将大数据预训练与多源丰富知识相结合,通过持续打磨算法技术,并不断吸收海量文本数据中词汇、结构、语法、语义等方面的新知识,实现模型效果不断进化。为用户提供更加便捷的信息和服务以及更为智能化的体验。',
8
9
  displayName: 'Taichu-2.0',
9
10
  enabled: true,
10
11
  functionCall: false,
@@ -13,9 +14,13 @@ const Taichu: ModelProviderCard = {
13
14
  },
14
15
  ],
15
16
  checkModel: 'taichu_llm',
17
+ description:
18
+ '中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。',
16
19
  id: 'taichu',
17
20
  modelList: { showModelFetcher: true },
21
+ modelsUrl: 'https://ai-maas.wair.ac.cn/#/doc',
18
22
  name: 'Taichu',
23
+ url: 'https://ai-maas.wair.ac.cn',
19
24
  };
20
25
 
21
26
  export default Taichu;