@lobehub/chat 1.16.7 → 1.16.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of @lobehub/chat might be problematic. Click here for more details.

Files changed (40) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/package.json +1 -1
  5. package/src/config/modelProviders/ai360.ts +34 -68
  6. package/src/config/modelProviders/anthropic.ts +57 -11
  7. package/src/config/modelProviders/azure.ts +12 -3
  8. package/src/config/modelProviders/baichuan.ts +33 -12
  9. package/src/config/modelProviders/bedrock.ts +88 -25
  10. package/src/config/modelProviders/deepseek.ts +14 -3
  11. package/src/config/modelProviders/fireworksai.ts +37 -5
  12. package/src/config/modelProviders/google.ts +69 -15
  13. package/src/config/modelProviders/groq.ts +55 -5
  14. package/src/config/modelProviders/minimax.ts +10 -6
  15. package/src/config/modelProviders/mistral.ts +19 -3
  16. package/src/config/modelProviders/moonshot.ts +11 -1
  17. package/src/config/modelProviders/novita.ts +24 -0
  18. package/src/config/modelProviders/ollama.ts +58 -1
  19. package/src/config/modelProviders/openai.ts +153 -18
  20. package/src/config/modelProviders/openrouter.ts +21 -1
  21. package/src/config/modelProviders/perplexity.ts +19 -3
  22. package/src/config/modelProviders/qwen.ts +11 -8
  23. package/src/config/modelProviders/siliconcloud.ts +34 -1
  24. package/src/config/modelProviders/spark.ts +16 -7
  25. package/src/config/modelProviders/stepfun.ts +13 -1
  26. package/src/config/modelProviders/taichu.ts +7 -2
  27. package/src/config/modelProviders/togetherai.ts +38 -2
  28. package/src/config/modelProviders/upstage.ts +11 -4
  29. package/src/config/modelProviders/zeroone.ts +5 -1
  30. package/src/config/modelProviders/zhipu.ts +20 -18
  31. package/src/const/discover.ts +1 -0
  32. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +69 -6
  33. package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
  34. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +56 -4
  35. package/src/server/routers/edge/config/index.test.ts +3 -7
  36. package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
  37. package/src/store/user/slices/modelList/action.test.ts +3 -7
  38. package/src/types/llm.ts +30 -1
  39. package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
  40. package/src/utils/parseModels.test.ts +1 -20
@@ -1,164 +1,200 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://docs.together.ai/docs/chat-models
4
- // ref https://www.together.ai/pricing
3
+ // ref :https://docs.together.ai/docs/chat-models
4
+ // ref :https://www.together.ai/pricing
5
5
  const TogetherAI: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
+ description:
9
+ 'Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。',
8
10
  displayName: 'Llama 3.1 8B Instruct Turbo',
9
11
  enabled: true,
10
12
  id: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
11
13
  tokens: 131_072,
12
14
  },
13
15
  {
16
+ description:
17
+ 'Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。',
14
18
  displayName: 'Llama 3.1 70B Instruct Turbo',
15
19
  enabled: true,
16
20
  id: 'meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo',
17
21
  tokens: 131_072,
18
22
  },
19
23
  {
24
+ description:
25
+ '405B 的 Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。',
20
26
  displayName: 'Llama 3.1 405B Instruct Turbo',
21
27
  enabled: true,
22
28
  id: 'meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo',
23
29
  tokens: 8192,
24
30
  },
25
31
  {
32
+ description: 'Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。',
26
33
  displayName: 'Llama 3 8B Instruct Turbo',
27
34
  id: 'meta-llama/Meta-Llama-3-8B-Instruct-Turbo',
28
35
  tokens: 8192,
29
36
  },
30
37
  {
38
+ description:
39
+ 'Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。',
31
40
  displayName: 'Llama 3 70B Instruct Turbo',
32
41
  id: 'meta-llama/Meta-Llama-3-70B-Instruct-Turbo',
33
42
  tokens: 8192,
34
43
  },
35
44
  {
45
+ description: 'Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。',
36
46
  displayName: 'Llama 3 8B Instruct Lite',
37
47
  id: 'meta-llama/Meta-Llama-3-8B-Instruct-Lite',
38
48
  tokens: 8192,
39
49
  },
40
50
  {
51
+ description: 'Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。',
41
52
  displayName: 'Llama 3 70B Instruct Lite',
42
53
  id: 'meta-llama/Meta-Llama-3-70B-Instruct-Lite',
43
54
  tokens: 8192,
44
55
  },
45
56
  {
57
+ description: 'LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。',
46
58
  displayName: 'LLaMA-3 Chat (8B)',
47
59
  id: 'meta-llama/Llama-3-8b-chat-hf',
48
60
  tokens: 8192,
49
61
  },
50
62
  {
63
+ description: 'LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。',
51
64
  displayName: 'LLaMA-3 Chat (70B)',
52
65
  id: 'meta-llama/Llama-3-70b-chat-hf',
53
66
  tokens: 8192,
54
67
  },
55
68
  {
69
+ description: 'LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。',
56
70
  displayName: 'LLaMA-2 Chat (13B)',
57
71
  id: 'meta-llama/Llama-2-13b-chat-hf',
58
72
  tokens: 4096,
59
73
  },
60
74
  {
75
+ description: 'Gemma 2 9B 由Google开发,提供高效的指令响应和综合能力。',
61
76
  displayName: 'Gemma 2 9B',
62
77
  enabled: true,
63
78
  id: 'google/gemma-2-9b-it',
64
79
  tokens: 8192,
65
80
  },
66
81
  {
82
+ description: 'Gemma 2 27B 是一款通用大语言模型,具有优异的性能和广泛的应用场景。',
67
83
  displayName: 'Gemma 2 27B',
68
84
  enabled: true,
69
85
  id: 'google/gemma-2-27b-it',
70
86
  tokens: 8192,
71
87
  },
72
88
  {
89
+ description: 'Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。',
73
90
  displayName: 'Gemma Instruct (2B)',
74
91
  id: 'google/gemma-2b-it',
75
92
  tokens: 8192,
76
93
  },
77
94
  {
95
+ description: 'Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。',
78
96
  displayName: 'Mistral (7B) Instruct v0.3',
79
97
  enabled: true,
80
98
  id: 'mistralai/Mistral-7B-Instruct-v0.3',
81
99
  tokens: 32_768,
82
100
  },
83
101
  {
102
+ description: 'Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。',
84
103
  displayName: 'Mistral (7B) Instruct v0.2',
85
104
  id: 'mistralai/Mistral-7B-Instruct-v0.2',
86
105
  tokens: 32_768,
87
106
  },
88
107
  {
108
+ description: 'Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。',
89
109
  displayName: 'Mistral (7B) Instruct',
90
110
  id: 'mistralai/Mistral-7B-Instruct-v0.1',
91
111
  tokens: 8192,
92
112
  },
93
113
  {
114
+ description: 'Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。',
94
115
  displayName: 'Mixtral-8x7B Instruct (46.7B)',
95
116
  enabled: true,
96
117
  id: 'mistralai/Mixtral-8x7B-Instruct-v0.1',
97
118
  tokens: 32_768,
98
119
  },
99
120
  {
121
+ description: 'Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。',
100
122
  displayName: 'Mixtral-8x22B Instruct (141B)',
101
123
  enabled: true,
102
124
  id: 'mistralai/Mixtral-8x22B-Instruct-v0.1',
103
125
  tokens: 65_536,
104
126
  },
105
127
  {
128
+ description: 'DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。',
106
129
  displayName: 'DeepSeek LLM Chat (67B)',
107
130
  enabled: true,
108
131
  id: 'deepseek-ai/deepseek-llm-67b-chat',
109
132
  tokens: 4096,
110
133
  },
111
134
  {
135
+ description: 'Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。',
112
136
  displayName: 'Qwen 2 Instruct (72B)',
113
137
  enabled: true,
114
138
  id: 'Qwen/Qwen2-72B-Instruct',
115
139
  tokens: 32_768,
116
140
  },
117
141
  {
142
+ description: 'Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。',
118
143
  displayName: 'Qwen 1.5 Chat (72B)',
119
144
  id: 'Qwen/Qwen1.5-72B-Chat',
120
145
  tokens: 32_768,
121
146
  },
122
147
  {
148
+ description: 'Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。',
123
149
  displayName: 'Qwen 1.5 Chat (110B)',
124
150
  id: 'Qwen/Qwen1.5-110B-Chat',
125
151
  tokens: 32_768,
126
152
  },
127
153
  {
154
+ description: 'DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。',
128
155
  displayName: 'DBRX Instruct',
129
156
  id: 'databricks/dbrx-instruct',
130
157
  tokens: 32_768,
131
158
  },
132
159
  {
160
+ description: 'Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。',
133
161
  displayName: 'Upstage SOLAR Instruct v1 (11B)',
134
162
  id: 'upstage/SOLAR-10.7B-Instruct-v1.0',
135
163
  tokens: 4096,
136
164
  },
137
165
  {
166
+ description: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。',
138
167
  displayName: 'Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)',
139
168
  id: 'NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO',
140
169
  tokens: 32_768,
141
170
  },
142
171
  {
172
+ description: 'Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。',
143
173
  displayName: 'Nous Hermes-2 Yi (34B)',
144
174
  id: 'NousResearch/Nous-Hermes-2-Yi-34B',
145
175
  tokens: 4096,
146
176
  },
147
177
  {
178
+ description: 'MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。',
148
179
  displayName: 'MythoMax-L2 (13B)',
149
180
  id: 'Gryphe/MythoMax-L2-13b',
150
181
  tokens: 4096,
151
182
  },
152
183
  {
184
+ description: 'StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。',
153
185
  displayName: 'StripedHyena Nous (7B)',
154
186
  id: 'togethercomputer/StripedHyena-Nous-7B',
155
187
  tokens: 32_768,
156
188
  },
157
189
  ],
158
190
  checkModel: 'meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo',
191
+ description:
192
+ 'Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。',
159
193
  id: 'togetherai',
160
194
  modelList: { showModelFetcher: true },
195
+ modelsUrl: 'https://docs.together.ai/docs/chat-models',
161
196
  name: 'Together AI',
197
+ url: 'https://www.together.ai',
162
198
  };
163
199
 
164
200
  export default TogetherAI;
@@ -1,10 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://developers.upstage.ai/docs/getting-started/models
3
+ // ref :https://developers.upstage.ai/docs/getting-started/models
4
4
  const Upstage: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
- description: 'A more intelligent, instruction-following Solar LLM with IFEval 80+. The official version with expanded language support and longer context length will be released in November 2024. solar-pro supports English only at this time. solar-pro is an alias for our latest Solar Pro model. (Currently solar-pro-preview-240910)',
7
+ description:
8
+ 'Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。',
8
9
  displayName: 'Solar Pro',
9
10
  enabled: true,
10
11
  functionCall: false,
@@ -12,7 +13,8 @@ const Upstage: ModelProviderCard = {
12
13
  tokens: 4096,
13
14
  },
14
15
  {
15
- description: 'A compact LLM offering superior performance to GPT-3.5, with robust multilingual capabilities for both English and Korean, delivering high efficiency in a smaller package. solar-1-mini-chat is alias for our latest solar-1-mini-chat model. (Currently solar-1-mini-chat-240612)',
16
+ description:
17
+ 'Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。',
16
18
  displayName: 'Solar Mini',
17
19
  enabled: true,
18
20
  functionCall: true,
@@ -20,7 +22,8 @@ const Upstage: ModelProviderCard = {
20
22
  tokens: 32_768,
21
23
  },
22
24
  {
23
- description: 'A compact LLM that extends the capabilities of solar-mini-chat with specialization in Japanese, while maintaining high efficiency and performance in English and Korean. solar-1-mini-chat-ja is alias for our latest solar-1-mini-chat-ja model.(Currently solar-1-mini-chat-ja-240612)',
25
+ description:
26
+ 'Solar Mini (Ja) 扩展了 Solar Mini 的能力,专注于日语,同时在英语和韩语的使用中保持高效和卓越性能。',
24
27
  displayName: 'Solar Mini (Ja)',
25
28
  functionCall: false,
26
29
  id: 'solar-1-mini-chat-ja',
@@ -28,9 +31,13 @@ const Upstage: ModelProviderCard = {
28
31
  },
29
32
  ],
30
33
  checkModel: 'solar-1-mini-chat',
34
+ description:
35
+ 'Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。',
31
36
  id: 'upstage',
32
37
  modelList: { showModelFetcher: true },
38
+ modelsUrl: 'https://developers.upstage.ai/docs/getting-started/models',
33
39
  name: 'Upstage',
40
+ url: 'https://upstage.ai',
34
41
  };
35
42
 
36
43
  export default Upstage;
@@ -1,6 +1,6 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
3
+ // ref :https://platform.lingyiwanwu.com/docs#%E6%A8%A1%E5%9E%8B
4
4
  const ZeroOne: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
@@ -71,8 +71,12 @@ const ZeroOne: ModelProviderCard = {
71
71
  },
72
72
  ],
73
73
  checkModel: 'yi-spark',
74
+ description:
75
+ '01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。',
74
76
  id: 'zeroone',
77
+ modelsUrl: 'https://platform.lingyiwanwu.com/docs',
75
78
  name: '01.AI',
79
+ url: 'https://01.ai',
76
80
  };
77
81
 
78
82
  export default ZeroOne;
@@ -1,13 +1,13 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://open.bigmodel.cn/dev/howuse/model
3
+ // ref :https://open.bigmodel.cn/dev/howuse/model
4
4
  // api https://open.bigmodel.cn/dev/api#language
5
- // ref https://open.bigmodel.cn/modelcenter/square
5
+ // ref :https://open.bigmodel.cn/modelcenter/square
6
6
  const ZhiPu: ModelProviderCard = {
7
7
  chatModels: [
8
8
  {
9
9
  description:
10
- 'GLM-4-AllTools 是专门为支持智能体和相关任务而进一步优化的模型版本。它能够自主理解用户的意图,规划复杂的指令,并能够调用一个或多个工具(例如网络浏览器、代码解释器和文本生图像)以完成复杂的任务。',
10
+ 'GLM-4-AllTools 是一个多功能智能体模型,优化以支持复杂指令规划与工具调用,如网络浏览、代码解释和文本生成,适用于多任务执行。',
11
11
  displayName: 'GLM-4-AllTools',
12
12
  enabled: true,
13
13
  functionCall: true,
@@ -15,7 +15,8 @@ const ZhiPu: ModelProviderCard = {
15
15
  tokens: 128_000,
16
16
  },
17
17
  {
18
- description: '高智能旗舰:性能全面提升,长文本和复杂任务能力显著增强',
18
+ description:
19
+ 'GLM-4-Plus 作为高智能旗舰,具备强大的处理长文本和复杂任务的能力,性能全面提升。',
19
20
  displayName: 'GLM-4-Plus',
20
21
  enabled: true,
21
22
  functionCall: true,
@@ -23,7 +24,7 @@ const ZhiPu: ModelProviderCard = {
23
24
  tokens: 128_000,
24
25
  },
25
26
  {
26
- description: '高智能模型:适用于处理高度复杂和多样化的任务',
27
+ description: 'GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。',
27
28
  displayName: 'GLM-4-0520',
28
29
  enabled: true,
29
30
  functionCall: true,
@@ -31,14 +32,14 @@ const ZhiPu: ModelProviderCard = {
31
32
  tokens: 128_000,
32
33
  },
33
34
  {
34
- description: '旧版旗舰:发布于2024年1月16日,目前已被 GLM-4-0520 取代', // deprecated on 2025-06
35
+ description: 'GLM-4 是发布于2024年1月的旧旗舰版本,目前已被更强的 GLM-4-0520 取代。',
35
36
  displayName: 'GLM-4',
36
37
  functionCall: true,
37
38
  id: 'glm-4',
38
39
  tokens: 128_000,
39
40
  },
40
41
  {
41
- description: '性价比最高的版本,综合性能接近GLM-4,速度快,价格实惠',
42
+ description: 'GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。',
42
43
  displayName: 'GLM-4-Air',
43
44
  enabled: true,
44
45
  functionCall: true,
@@ -46,14 +47,14 @@ const ZhiPu: ModelProviderCard = {
46
47
  tokens: 128_000,
47
48
  },
48
49
  {
49
- description: 'GLM-4-Air 的高性能版本,效果不变,推理速度达到其2.6',
50
+ description: 'GLM-4-AirX 提供 GLM-4-Air 的高效版本,推理速度可达其2.6倍。',
50
51
  displayName: 'GLM-4-AirX',
51
52
  functionCall: true,
52
53
  id: 'glm-4-airx',
53
54
  tokens: 8192,
54
55
  },
55
56
  {
56
- description: '超长输入:专为处理超长文本和记忆型任务设计',
57
+ description: 'GLM-4-Long 支持超长文本输入,适合记忆型任务与大规模文档处理。',
57
58
  displayName: 'GLM-4-Long',
58
59
  enabled: true,
59
60
  functionCall: true,
@@ -61,7 +62,7 @@ const ZhiPu: ModelProviderCard = {
61
62
  tokens: 1_024_000,
62
63
  },
63
64
  {
64
- description: '适用简单任务,速度最快,价格最实惠的版本',
65
+ description: 'GLM-4-Flash 是处理简单任务的理想选择,速度最快且价格最优惠。',
65
66
  displayName: 'GLM-4-Flash',
66
67
  enabled: true,
67
68
  functionCall: true,
@@ -69,8 +70,7 @@ const ZhiPu: ModelProviderCard = {
69
70
  tokens: 128_000,
70
71
  },
71
72
  {
72
- description:
73
- '视频和图像理解:具备视频内容和多图片的理解能力',
73
+ description: 'GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。',
74
74
  displayName: 'GLM-4V-Plus',
75
75
  enabled: true,
76
76
  id: 'glm-4v-plus',
@@ -78,8 +78,7 @@ const ZhiPu: ModelProviderCard = {
78
78
  vision: true,
79
79
  },
80
80
  {
81
- description:
82
- '图像理解:具备图像理解能力和推理能力',
81
+ description: 'GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。',
83
82
  displayName: 'GLM-4V',
84
83
  enabled: true,
85
84
  id: 'glm-4v',
@@ -88,28 +87,31 @@ const ZhiPu: ModelProviderCard = {
88
87
  },
89
88
  {
90
89
  description:
91
- 'CodeGeeX是一款强大的AI编程助手,提供智能问答和代码补全功能,支持多种编程语言,帮助开发者提高编程效率。',
90
+ 'CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。',
92
91
  displayName: 'CodeGeeX-4',
93
92
  id: 'codegeex-4',
94
93
  tokens: 128_000,
95
94
  },
96
95
  {
97
- description:
98
- '支持基于人设的角色扮演、超长多轮的记忆、千人千面的角色对话,广泛应用于情感陪伴、游戏智能NPC、网红/明星/影视剧IP分身、数字人/虚拟主播、文字冒险游戏等拟人对话或游戏场景。',
96
+ description: 'CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。',
99
97
  displayName: 'CharGLM-3',
100
98
  id: 'charglm-3',
101
99
  tokens: 4096,
102
100
  },
103
101
  {
104
- description: '心理模型:具备专业咨询能力,帮助用户理解情感并应对情绪问题',
102
+ description: 'Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。',
105
103
  displayName: 'Emohaa',
106
104
  id: 'emohaa',
107
105
  tokens: 8192,
108
106
  },
109
107
  ],
110
108
  checkModel: 'glm-4-flash',
109
+ description:
110
+ '智谱 AI 提供多模态与语言模型的开放平台,支持广泛的AI应用场景,包括文本处理、图像理解与编程辅助等。',
111
111
  id: 'zhipu',
112
+ modelsUrl: 'https://open.bigmodel.cn/dev/howuse/model',
112
113
  name: 'ZhiPu',
114
+ url: 'https://zhipuai.cn',
113
115
  };
114
116
 
115
117
  export default ZhiPu;
@@ -0,0 +1 @@
1
+ export const CNYtoUSD = 7.14;
@@ -7,24 +7,40 @@ exports[`LobeOpenAI > models > should get models 1`] = `
7
7
  "displayName": "GPT-3.5 Turbo",
8
8
  "functionCall": true,
9
9
  "id": "gpt-3.5-turbo",
10
+ "pricing": {
11
+ "input": 0.5,
12
+ "output": 1.5,
13
+ },
10
14
  "tokens": 16385,
11
15
  },
12
16
  {
13
- "description": "Currently points to gpt-3.5-turbo-16k-0613",
17
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
14
18
  "displayName": "GPT-3.5 Turbo 16K",
15
19
  "id": "gpt-3.5-turbo-16k",
16
20
  "legacy": true,
21
+ "pricing": {
22
+ "input": 3,
23
+ "output": 4,
24
+ },
17
25
  "tokens": 16385,
18
26
  },
19
27
  {
20
- "description": "Currently points to gpt-3.5-turbo-16k-0613",
28
+ "description": "GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。",
21
29
  "id": "gpt-3.5-turbo-16k-0613",
22
30
  "legacy": true,
31
+ "pricing": {
32
+ "input": 3,
33
+ "output": 4,
34
+ },
23
35
  "tokens": 16385,
24
36
  },
25
37
  {
26
- "displayName": "GPT-4 Turbo Vision Preview (1106)",
38
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
27
39
  "id": "gpt-4-1106-vision-preview",
40
+ "pricing": {
41
+ "input": 10,
42
+ "output": 30,
43
+ },
28
44
  "tokens": 128000,
29
45
  "vision": true,
30
46
  },
@@ -32,68 +48,115 @@ exports[`LobeOpenAI > models > should get models 1`] = `
32
48
  "id": "gpt-3.5-turbo-instruct-0914",
33
49
  },
34
50
  {
51
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
35
52
  "displayName": "GPT-4 Turbo Preview (0125)",
36
53
  "functionCall": true,
37
54
  "id": "gpt-4-0125-preview",
55
+ "pricing": {
56
+ "input": 10,
57
+ "output": 30,
58
+ },
38
59
  "tokens": 128000,
39
60
  },
40
61
  {
41
- "description": "Currently points to gpt-4-0125-preview",
62
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
42
63
  "displayName": "GPT-4 Turbo Preview",
43
64
  "functionCall": true,
44
65
  "id": "gpt-4-turbo-preview",
66
+ "pricing": {
67
+ "input": 10,
68
+ "output": 30,
69
+ },
45
70
  "tokens": 128000,
46
71
  },
47
72
  {
73
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
48
74
  "displayName": "GPT-3.5 Turbo Instruct",
49
75
  "id": "gpt-3.5-turbo-instruct",
76
+ "pricing": {
77
+ "input": 1.5,
78
+ "output": 2,
79
+ },
50
80
  "tokens": 4096,
51
81
  },
52
82
  {
53
83
  "id": "gpt-3.5-turbo-0301",
54
84
  },
55
85
  {
86
+ "description": "GPT-3.5 Turbo 是 OpenAI 的一款基础模型,结合了高效性和经济性,广泛用于文本生成、理解和分析,专为指导性提示进行调整,去除了与聊天相关的优化。",
56
87
  "displayName": "GPT-3.5 Turbo (0613)",
57
88
  "id": "gpt-3.5-turbo-0613",
58
89
  "legacy": true,
90
+ "pricing": {
91
+ "input": 1.5,
92
+ "output": 2,
93
+ },
59
94
  "tokens": 4096,
60
95
  },
61
96
  {
97
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
62
98
  "displayName": "GPT-3.5 Turbo (1106)",
63
99
  "functionCall": true,
64
100
  "id": "gpt-3.5-turbo-1106",
101
+ "pricing": {
102
+ "input": 1,
103
+ "output": 2,
104
+ },
65
105
  "tokens": 16385,
66
106
  },
67
107
  {
108
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
68
109
  "displayName": "GPT-4 Turbo Preview (1106)",
69
110
  "functionCall": true,
70
111
  "id": "gpt-4-1106-preview",
112
+ "pricing": {
113
+ "input": 10,
114
+ "output": 30,
115
+ },
71
116
  "tokens": 128000,
72
117
  },
73
118
  {
74
- "description": "Currently points to gpt-4-1106-vision-preview",
119
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。",
75
120
  "displayName": "GPT-4 Turbo Vision Preview",
76
121
  "id": "gpt-4-vision-preview",
122
+ "pricing": {
123
+ "input": 10,
124
+ "output": 30,
125
+ },
77
126
  "tokens": 128000,
78
127
  "vision": true,
79
128
  },
80
129
  {
81
- "description": "Currently points to gpt-4-0613",
130
+ "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。",
82
131
  "displayName": "GPT-4",
83
132
  "functionCall": true,
84
133
  "id": "gpt-4",
134
+ "pricing": {
135
+ "input": 30,
136
+ "output": 60,
137
+ },
85
138
  "tokens": 8192,
86
139
  },
87
140
  {
141
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125",
88
142
  "displayName": "GPT-3.5 Turbo (0125)",
89
143
  "functionCall": true,
90
144
  "id": "gpt-3.5-turbo-0125",
145
+ "pricing": {
146
+ "input": 0.5,
147
+ "output": 1.5,
148
+ },
91
149
  "tokens": 16385,
92
150
  },
93
151
  {
152
+ "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。",
94
153
  "displayName": "GPT-4 (0613)",
95
154
  "functionCall": true,
96
155
  "id": "gpt-4-0613",
156
+ "pricing": {
157
+ "input": 30,
158
+ "output": 60,
159
+ },
97
160
  "tokens": 8192,
98
161
  },
99
162
  ]
@@ -45,6 +45,7 @@
45
45
  "endpoint": "",
46
46
  "customModelCards": [
47
47
  {
48
+ "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。",
48
49
  "displayName": "LLaVA 7B",
49
50
  "enabled": true,
50
51
  "id": "llava",