@lobehub/chat 1.16.8 → 1.16.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.

Potentially problematic release.


This version of @lobehub/chat might be problematic. Click here for more details.

Files changed (37) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/package.json +1 -1
  3. package/src/config/modelProviders/ai360.ts +11 -0
  4. package/src/config/modelProviders/anthropic.ts +27 -18
  5. package/src/config/modelProviders/azure.ts +12 -3
  6. package/src/config/modelProviders/baichuan.ts +3 -1
  7. package/src/config/modelProviders/bedrock.ts +20 -18
  8. package/src/config/modelProviders/deepseek.ts +3 -1
  9. package/src/config/modelProviders/fireworksai.ts +33 -5
  10. package/src/config/modelProviders/google.ts +16 -13
  11. package/src/config/modelProviders/groq.ts +19 -8
  12. package/src/config/modelProviders/minimax.ts +8 -6
  13. package/src/config/modelProviders/mistral.ts +19 -3
  14. package/src/config/modelProviders/moonshot.ts +11 -1
  15. package/src/config/modelProviders/novita.ts +24 -0
  16. package/src/config/modelProviders/ollama.ts +58 -1
  17. package/src/config/modelProviders/openai.ts +52 -18
  18. package/src/config/modelProviders/openrouter.ts +21 -1
  19. package/src/config/modelProviders/perplexity.ts +19 -3
  20. package/src/config/modelProviders/qwen.ts +11 -8
  21. package/src/config/modelProviders/siliconcloud.ts +34 -1
  22. package/src/config/modelProviders/spark.ts +16 -7
  23. package/src/config/modelProviders/stepfun.ts +13 -1
  24. package/src/config/modelProviders/taichu.ts +7 -2
  25. package/src/config/modelProviders/togetherai.ts +38 -2
  26. package/src/config/modelProviders/upstage.ts +11 -4
  27. package/src/config/modelProviders/zeroone.ts +5 -1
  28. package/src/config/modelProviders/zhipu.ts +20 -18
  29. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +13 -6
  30. package/src/migrations/FromV3ToV4/fixtures/ollama-output-v4.json +1 -0
  31. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +24 -4
  32. package/src/server/routers/edge/config/index.test.ts +3 -11
  33. package/src/store/user/slices/modelList/__snapshots__/action.test.ts.snap +12 -0
  34. package/src/store/user/slices/modelList/action.test.ts +3 -7
  35. package/src/types/llm.ts +1 -0
  36. package/src/utils/__snapshots__/parseModels.test.ts.snap +32 -0
  37. package/src/utils/parseModels.test.ts +1 -28
@@ -1,9 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
+ // ref: https://ai.google.dev/gemini-api/docs/models/gemini
3
4
  const Google: ModelProviderCard = {
4
5
  chatModels: [
5
6
  {
6
- description: 'Fast and versatile multimodal model for scaling across diverse tasks',
7
+ description:
8
+ 'Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。',
7
9
  displayName: 'Gemini 1.5 Flash',
8
10
  enabled: true,
9
11
  functionCall: true,
@@ -18,7 +20,7 @@ const Google: ModelProviderCard = {
18
20
  vision: true,
19
21
  },
20
22
  {
21
- description: 'Fast and versatile multimodal model for scaling across diverse tasks',
23
+ description: 'Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。',
22
24
  displayName: 'Gemini 1.5 Flash 0827',
23
25
  enabled: true,
24
26
  functionCall: true,
@@ -34,7 +36,7 @@ const Google: ModelProviderCard = {
34
36
  vision: true,
35
37
  },
36
38
  {
37
- description: 'Fast and versatile multimodal model for scaling across diverse tasks',
39
+ description: 'Gemini 1.5 Flash 8B 0827 专为处理大规模任务场景设计,提供无与伦比的处理速度。',
38
40
  displayName: 'Gemini 1.5 Flash 8B 0827',
39
41
  functionCall: true,
40
42
  id: 'gemini-1.5-flash-8b-exp-0827',
@@ -44,7 +46,7 @@ const Google: ModelProviderCard = {
44
46
  vision: true,
45
47
  },
46
48
  {
47
- description: 'Fast and versatile multimodal model for scaling across diverse tasks',
49
+ description: 'Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。',
48
50
  displayName: 'Gemini 1.5 Flash 001',
49
51
  functionCall: true,
50
52
  id: 'gemini-1.5-flash-001',
@@ -53,7 +55,8 @@ const Google: ModelProviderCard = {
53
55
  vision: true,
54
56
  },
55
57
  {
56
- description: 'Mid-size multimodal model that supports up to 2 million tokens',
58
+ description:
59
+ 'Gemini 1.5 Pro 支持高达200万个tokens,是中型多模态模型的理想选择,适用于复杂任务的多方面支持。',
57
60
  displayName: 'Gemini 1.5 Pro',
58
61
  enabled: true,
59
62
  functionCall: true,
@@ -69,7 +72,7 @@ const Google: ModelProviderCard = {
69
72
  vision: true,
70
73
  },
71
74
  {
72
- description: 'Mid-size multimodal model that supports up to 2 million tokens',
75
+ description: 'Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。',
73
76
  displayName: 'Gemini 1.5 Pro 0827',
74
77
  enabled: true,
75
78
  functionCall: true,
@@ -85,7 +88,7 @@ const Google: ModelProviderCard = {
85
88
  vision: true,
86
89
  },
87
90
  {
88
- description: 'Mid-size multimodal model that supports up to 2 million tokens',
91
+ description: 'Gemini 1.5 Pro 0801 提供出色的多模态处理能力,为应用开发带来更大灵活性。',
89
92
  displayName: 'Gemini 1.5 Pro 0801',
90
93
  functionCall: true,
91
94
  id: 'gemini-1.5-pro-exp-0801',
@@ -100,7 +103,7 @@ const Google: ModelProviderCard = {
100
103
  vision: true,
101
104
  },
102
105
  {
103
- description: 'Mid-size multimodal model that supports up to 2 million tokens',
106
+ description: 'Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。',
104
107
  displayName: 'Gemini 1.5 Pro 001',
105
108
  functionCall: true,
106
109
  id: 'gemini-1.5-pro-001',
@@ -115,8 +118,7 @@ const Google: ModelProviderCard = {
115
118
  vision: true,
116
119
  },
117
120
  {
118
- description:
119
- 'The best model for scaling across a wide range of tasks. This is the latest model.',
121
+ description: 'Gemini 1.0 Pro 是Google的高性能AI模型,专为广泛任务扩展而设计。',
120
122
  displayName: 'Gemini 1.0 Pro',
121
123
  id: 'gemini-1.0-pro-latest',
122
124
  maxOutput: 2048,
@@ -129,7 +131,7 @@ const Google: ModelProviderCard = {
129
131
  },
130
132
  {
131
133
  description:
132
- 'The best model for scaling across a wide range of tasks. This is a stable model that supports tuning.',
134
+ 'Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。',
133
135
  displayName: 'Gemini 1.0 Pro 001 (Tuning)',
134
136
  functionCall: true,
135
137
  id: 'gemini-1.0-pro-001',
@@ -142,8 +144,7 @@ const Google: ModelProviderCard = {
142
144
  tokens: 30_720 + 2048,
143
145
  },
144
146
  {
145
- description:
146
- 'The best model for scaling across a wide range of tasks. Released April 9, 2024.',
147
+ description: 'Gemini 1.0 Pro 002 (Tuning) 提供出色的多模态支持,专注于复杂任务的有效解决。',
147
148
  displayName: 'Gemini 1.0 Pro 002 (Tuning)',
148
149
  id: 'gemini-1.0-pro-002',
149
150
  maxOutput: 2048,
@@ -156,6 +157,8 @@ const Google: ModelProviderCard = {
156
157
  },
157
158
  ],
158
159
  checkModel: 'gemini-1.5-flash-latest',
160
+ description:
161
+ 'Google 的 Gemini 系列是其最先进、通用的 A I模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了AI模型的效率与应用广泛性。',
159
162
  id: 'google',
160
163
  modelsUrl: 'https://ai.google.dev/gemini-api/docs/models/gemini',
161
164
  name: 'Google',
@@ -5,6 +5,8 @@ const Groq: ModelProviderCard = {
5
5
  chatModels: [
6
6
  // TODO: During preview launch, Groq is limiting 3.1 models to max_tokens of 8k.
7
7
  {
8
+ description:
9
+ 'Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。',
8
10
  displayName: 'Llama 3.1 8B (Preview)',
9
11
  enabled: true,
10
12
  functionCall: true,
@@ -17,6 +19,8 @@ const Groq: ModelProviderCard = {
17
19
  tokens: 131_072,
18
20
  },
19
21
  {
22
+ description:
23
+ 'Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。',
20
24
  displayName: 'Llama 3.1 70B (Preview)',
21
25
  enabled: true,
22
26
  functionCall: true,
@@ -38,7 +42,8 @@ const Groq: ModelProviderCard = {
38
42
  },
39
43
  */
40
44
  {
41
- displayName: 'Llama 3 Groq 8B Tool Use Preview 8K',
45
+ description: 'Llama 3 Groq 8B Tool Use 是针对高效工具使用优化的模型,支持快速并行计算。',
46
+ displayName: 'Llama 3 Groq 8B Tool Use (Preview)',
42
47
  enabled: true,
43
48
  functionCall: true,
44
49
  id: 'llama3-groq-8b-8192-tool-use-preview',
@@ -49,7 +54,8 @@ const Groq: ModelProviderCard = {
49
54
  tokens: 8192,
50
55
  },
51
56
  {
52
- displayName: 'Llama 3 Groq 70B Tool Use Preview 8K',
57
+ description: 'Llama 3 Groq 70B Tool Use 提供强大的工具调用能力,支持复杂任务的高效处理。',
58
+ displayName: 'Llama 3 Groq 70B Tool Use (Preview)',
53
59
  enabled: true,
54
60
  functionCall: true,
55
61
  id: 'llama3-groq-70b-8192-tool-use-preview',
@@ -60,8 +66,8 @@ const Groq: ModelProviderCard = {
60
66
  tokens: 8192,
61
67
  },
62
68
  {
69
+ description: 'Meta Llama 3 8B 带来优质的推理效能,适合多场景应用需求。',
63
70
  displayName: 'Meta Llama 3 8B',
64
- enabled: true,
65
71
  functionCall: true,
66
72
  id: 'llama3-8b-8192',
67
73
  pricing: {
@@ -71,8 +77,8 @@ const Groq: ModelProviderCard = {
71
77
  tokens: 8192,
72
78
  },
73
79
  {
80
+ description: 'Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。',
74
81
  displayName: 'Meta Llama 3 70B',
75
- enabled: true,
76
82
  functionCall: true,
77
83
  id: 'llama3-70b-8192',
78
84
  pricing: {
@@ -82,7 +88,8 @@ const Groq: ModelProviderCard = {
82
88
  tokens: 8192,
83
89
  },
84
90
  {
85
- displayName: 'Gemma 2 9B 8k',
91
+ description: 'Gemma 2 9B 是一款优化用于特定任务和工具整合的模型。',
92
+ displayName: 'Gemma 2 9B',
86
93
  enabled: true,
87
94
  functionCall: true,
88
95
  id: 'gemma2-9b-it',
@@ -93,7 +100,8 @@ const Groq: ModelProviderCard = {
93
100
  tokens: 8192,
94
101
  },
95
102
  {
96
- displayName: 'Gemma 7B 8k Instruct',
103
+ description: 'Gemma 7B 适合中小规模任务处理,兼具成本效益。',
104
+ displayName: 'Gemma 7B',
97
105
  functionCall: true,
98
106
  id: 'gemma-7b-it',
99
107
  pricing: {
@@ -103,8 +111,8 @@ const Groq: ModelProviderCard = {
103
111
  tokens: 8192,
104
112
  },
105
113
  {
106
- displayName: 'Mixtral 8x7B Instruct 32k',
107
- enabled: true,
114
+ description: 'Mixtral 8x7B 提供高容错的并行计算能力,适合复杂任务。',
115
+ displayName: 'Mixtral 8x7B',
108
116
  functionCall: true,
109
117
  id: 'mixtral-8x7b-32768',
110
118
  pricing: {
@@ -114,6 +122,7 @@ const Groq: ModelProviderCard = {
114
122
  tokens: 32_768,
115
123
  },
116
124
  {
125
+ description: 'LLaVA 1.5 7B 提供视觉处理能力融合,通过视觉信息输入生成复杂输出。',
117
126
  displayName: 'LLaVA 1.5 7B',
118
127
  enabled: true,
119
128
  id: 'llava-v1.5-7b-4096-preview',
@@ -122,6 +131,8 @@ const Groq: ModelProviderCard = {
122
131
  },
123
132
  ],
124
133
  checkModel: 'gemma2-9b-it',
134
+ description:
135
+ 'Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。',
125
136
  id: 'groq',
126
137
  modelsUrl: 'https://console.groq.com/docs/models',
127
138
  name: 'Groq',
@@ -1,10 +1,10 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://www.minimaxi.com/document/guides/chat-model/pro/api
3
+ // ref: https://platform.minimaxi.com/document/Models
4
4
  const Minimax: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
- description: '通用场景',
7
+ description: '适用于广泛的自然语言处理任务,包括文本生成、对话系统等。',
8
8
  displayName: 'abab6.5s',
9
9
  enabled: true,
10
10
  functionCall: true,
@@ -12,7 +12,7 @@ const Minimax: ModelProviderCard = {
12
12
  tokens: 245_760,
13
13
  },
14
14
  {
15
- description: '英文等多语种人设对话场景',
15
+ description: '专为多语种人设对话设计,支持英文及其他多种语言的高质量对话生成。',
16
16
  displayName: 'abab6.5g',
17
17
  enabled: true,
18
18
  functionCall: true,
@@ -20,7 +20,7 @@ const Minimax: ModelProviderCard = {
20
20
  tokens: 8192,
21
21
  },
22
22
  {
23
- description: '中文人设对话场景',
23
+ description: '针对中文人设对话场景优化,提供流畅且符合中文表达习惯的对话生成能力。',
24
24
  displayName: 'abab6.5t',
25
25
  enabled: true,
26
26
  functionCall: true,
@@ -28,19 +28,21 @@ const Minimax: ModelProviderCard = {
28
28
  tokens: 8192,
29
29
  },
30
30
  {
31
- description: '生产力场景',
31
+ description: '面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。',
32
32
  displayName: 'abab5.5',
33
33
  id: 'abab5.5-chat',
34
34
  tokens: 16_384,
35
35
  },
36
36
  {
37
- description: '中文人设对话场景',
37
+ description: '专为中文人设对话场景设计,提供高质量的中文对话生成能力,适用于多种应用场景。',
38
38
  displayName: 'abab5.5s',
39
39
  id: 'abab5.5s-chat',
40
40
  tokens: 8192,
41
41
  },
42
42
  ],
43
43
  checkModel: 'abab6.5s-chat',
44
+ description:
45
+ 'MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。',
44
46
  id: 'minimax',
45
47
  modelsUrl: 'https://platform.minimaxi.com/document/Models',
46
48
  name: 'Minimax',
@@ -1,29 +1,36 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://docs.mistral.ai/getting-started/models/
4
- // ref https://docs.mistral.ai/capabilities/function_calling/
3
+ // ref: https://docs.mistral.ai/getting-started/models/
4
+ // ref: https://docs.mistral.ai/capabilities/function_calling/
5
5
  const Mistral: ModelProviderCard = {
6
6
  chatModels: [
7
7
  {
8
+ description:
9
+ 'Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。',
8
10
  displayName: 'Mistral 7B',
9
11
  enabled: true,
10
12
  id: 'open-mistral-7b',
11
13
  tokens: 32_768,
12
14
  },
13
15
  {
16
+ description:
17
+ 'Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。',
14
18
  displayName: 'Mixtral 8x7B',
15
19
  enabled: true,
16
20
  id: 'open-mixtral-8x7b',
17
21
  tokens: 32_768,
18
22
  },
19
23
  {
24
+ description:
25
+ 'Mixtral 8x22B是一个更大的专家模型,专注于复杂任务,提供出色的推理能力和更高的吞吐量。',
20
26
  displayName: 'Mixtral 8x22B',
21
- enabled: true,
22
27
  functionCall: true,
23
28
  id: 'open-mixtral-8x22b',
24
29
  tokens: 65_536,
25
30
  },
26
31
  {
32
+ description:
33
+ 'Mistral Nemo是一个与Nvidia合作开发的12B模型,提供出色的推理和编码性能,易于集成和替换。',
27
34
  displayName: 'Mistral Nemo',
28
35
  enabled: true,
29
36
  functionCall: true,
@@ -31,6 +38,8 @@ const Mistral: ModelProviderCard = {
31
38
  tokens: 128_000,
32
39
  },
33
40
  {
41
+ description:
42
+ 'Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。',
34
43
  displayName: 'Mistral Large',
35
44
  enabled: true,
36
45
  functionCall: true,
@@ -38,12 +47,15 @@ const Mistral: ModelProviderCard = {
38
47
  tokens: 128_000,
39
48
  },
40
49
  {
50
+ description: 'Codestral是专注于代码生成的尖端生成模型,优化了中间填充和代码补全任务。',
41
51
  displayName: 'Codestral',
42
52
  enabled: true,
43
53
  id: 'codestral-latest',
44
54
  tokens: 32_768,
45
55
  },
46
56
  {
57
+ description:
58
+ 'Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。',
47
59
  displayName: 'Codestral Mamba',
48
60
  enabled: true,
49
61
  id: 'open-codestral-mamba',
@@ -51,8 +63,12 @@ const Mistral: ModelProviderCard = {
51
63
  },
52
64
  ],
53
65
  checkModel: 'open-mistral-7b',
66
+ description:
67
+ 'Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。',
54
68
  id: 'mistral',
69
+ modelsUrl: 'https://docs.mistral.ai/getting-started/models',
55
70
  name: 'Mistral',
71
+ url: 'https://mistral.ai',
56
72
  };
57
73
 
58
74
  export default Mistral;
@@ -1,9 +1,11 @@
1
1
  import { ModelProviderCard } from '@/types/llm';
2
2
 
3
- // ref https://platform.moonshot.cn/docs/intro#模型列表
3
+ // ref: https://platform.moonshot.cn/docs/intro#模型列表
4
4
  const Moonshot: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description:
8
+ 'Moonshot V1 128K 是一款拥有超长上下文处理能力的模型,适用于生成超长文本,满足复杂的生成任务需求,能够处理多达128,000个tokens的内容,非常适合科研、学术和大型文档生成等应用场景。',
7
9
  displayName: 'Moonshot V1 128K',
8
10
  enabled: true,
9
11
  functionCall: true,
@@ -11,6 +13,8 @@ const Moonshot: ModelProviderCard = {
11
13
  tokens: 128_000,
12
14
  },
13
15
  {
16
+ description:
17
+ 'Moonshot V1 32K 提供中等长度的上下文处理能力,能够处理32,768个tokens,特别适合生成各种长文档和复杂对话,应用于内容创作、报告生成和对话系统等领域。',
14
18
  displayName: 'Moonshot V1 32K',
15
19
  enabled: true,
16
20
  functionCall: true,
@@ -18,6 +22,8 @@ const Moonshot: ModelProviderCard = {
18
22
  tokens: 32_768,
19
23
  },
20
24
  {
25
+ description:
26
+ 'Moonshot V1 8K 专为生成短文本任务设计,具有高效的处理性能,能够处理8,192个tokens,非常适合简短对话、速记和快速内容生成。',
21
27
  displayName: 'Moonshot V1 8K',
22
28
  enabled: true,
23
29
  functionCall: true,
@@ -26,12 +32,16 @@ const Moonshot: ModelProviderCard = {
26
32
  },
27
33
  ],
28
34
  checkModel: 'moonshot-v1-8k',
35
+ description:
36
+ 'Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。',
29
37
  id: 'moonshot',
38
+ modelsUrl: 'https://platform.moonshot.cn/docs/intro',
30
39
  name: 'Moonshot',
31
40
  smoothing: {
32
41
  speed: 2,
33
42
  text: true,
34
43
  },
44
+ url: 'https://www.moonshot.cn',
35
45
  };
36
46
 
37
47
  export default Moonshot;
@@ -4,94 +4,118 @@ import { ModelProviderCard } from '@/types/llm';
4
4
  const Novita: ModelProviderCard = {
5
5
  chatModels: [
6
6
  {
7
+ description:
8
+ 'Llama 3.1 8B Instruct 是 Meta 推出的最新版本,优化了高质量对话场景,表现优于许多领先的闭源模型。',
7
9
  displayName: 'Llama 3.1 8B Instruct',
8
10
  enabled: true,
9
11
  id: 'meta-llama/llama-3.1-8b-instruct',
10
12
  tokens: 8192,
11
13
  },
12
14
  {
15
+ description:
16
+ 'Llama 3.1 70B Instruct 专为高质量对话而设计,在人类评估中表现突出,特别适合高交互场景。',
13
17
  displayName: 'Llama 3.1 70B Instruct',
14
18
  enabled: true,
15
19
  id: 'meta-llama/llama-3.1-70b-instruct',
16
20
  tokens: 131_072,
17
21
  },
18
22
  {
23
+ description:
24
+ 'Llama 3.1 405B Instruct 是 Meta最新推出的版本,优化用于生成高质量对话,超越了许多领导闭源模型。',
19
25
  displayName: 'Llama 3.1 405B Instruct',
20
26
  enabled: true,
21
27
  id: 'meta-llama/llama-3.1-405b-instruct',
22
28
  tokens: 32_768,
23
29
  },
24
30
  {
31
+ description: 'Llama 3 8B Instruct 优化了高质量对话场景,性能优于许多闭源模型。',
25
32
  displayName: 'Llama 3 8B Instruct',
26
33
  id: 'meta-llama/llama-3-8b-instruct',
27
34
  tokens: 8192,
28
35
  },
29
36
  {
37
+ description: 'Llama 3 70B Instruct 优化用于高质量对话场景,在各类人类评估中表现优异。',
30
38
  displayName: 'Llama 3 70B Instruct',
31
39
  id: 'meta-llama/llama-3-70b-instruct',
32
40
  tokens: 8192,
33
41
  },
34
42
  {
43
+ description: 'Gemma 2 9B 是谷歌的一款开源语言模型,以其在效率和性能方面设立了新的标准。',
35
44
  displayName: 'Gemma 2 9B',
36
45
  enabled: true,
37
46
  id: 'google/gemma-2-9b-it',
38
47
  tokens: 8192,
39
48
  },
40
49
  {
50
+ description: 'Mistral Nemo 是多语言支持和高性能编程的7.3B参数模型。',
41
51
  displayName: 'Mistral Nemo',
42
52
  enabled: true,
43
53
  id: 'mistralai/mistral-nemo',
44
54
  tokens: 32_768,
45
55
  },
46
56
  {
57
+ description: 'Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。',
47
58
  displayName: 'Mistral 7B Instruct',
48
59
  enabled: true,
49
60
  id: 'mistralai/mistral-7b-instruct',
50
61
  tokens: 32_768,
51
62
  },
52
63
  {
64
+ description: 'WizardLM 2 7B 是微软AI最新的快速轻量化模型,性能接近于现有开源领导模型的10倍。',
53
65
  displayName: 'WizardLM 2 7B',
54
66
  enabled: true,
55
67
  id: 'microsoft/wizardlm 2-7b',
56
68
  tokens: 32_768,
57
69
  },
58
70
  {
71
+ description: 'WizardLM-2 8x22B 是微软AI最先进的Wizard模型,显示出极其竞争力的表现。',
59
72
  displayName: 'WizardLM-2 8x22B',
60
73
  enabled: true,
61
74
  id: 'microsoft/wizardlm-2-8x22b',
62
75
  tokens: 65_535,
63
76
  },
64
77
  {
78
+ description: 'Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。',
65
79
  displayName: 'Dolphin Mixtral 8x22B',
66
80
  id: 'cognitivecomputations/dolphin-mixtral-8x22b',
67
81
  tokens: 16_000,
68
82
  },
69
83
  {
84
+ description:
85
+ 'Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。',
70
86
  displayName: 'Hermes 2 Pro Llama 3 8B',
71
87
  id: 'nousresearch/hermes-2-pro-llama-3-8b',
72
88
  tokens: 8192,
73
89
  },
74
90
  {
91
+ description:
92
+ 'Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。',
75
93
  displayName: 'Hermes 2 Mixtral 8x7B DPO',
76
94
  id: 'Nous-Hermes-2-Mixtral-8x7B-DPO',
77
95
  tokens: 32_768,
78
96
  },
79
97
  {
98
+ description: 'MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。',
80
99
  displayName: 'MythoMax l2 13B',
81
100
  id: 'gryphe/mythomax-l2-13b',
82
101
  tokens: 4096,
83
102
  },
84
103
  {
104
+ description: 'OpenChat 7B 是经过“C-RLFT(条件强化学习微调)”策略精调的开源语言模型库。',
85
105
  displayName: 'OpenChat 7B',
86
106
  id: 'openchat/openchat-7b',
87
107
  tokens: 4096,
88
108
  },
89
109
  ],
90
110
  checkModel: 'meta-llama/llama-3.1-8b-instruct',
111
+ description:
112
+ 'Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。',
91
113
  disableBrowserRequest: true,
92
114
  id: 'novita',
93
115
  modelList: { showModelFetcher: true },
116
+ modelsUrl: 'https://novita.ai/model-api/product/llm-api',
94
117
  name: 'Novita',
118
+ url: 'https://novita.ai',
95
119
  };
96
120
 
97
121
  export default Novita;