@lobehub/chat 1.57.1 → 1.59.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (92) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docker-compose/local/docker-compose.yml +1 -0
  4. package/locales/ar/modelProvider.json +24 -0
  5. package/locales/ar/models.json +60 -0
  6. package/locales/ar/providers.json +15 -0
  7. package/locales/bg-BG/modelProvider.json +24 -0
  8. package/locales/bg-BG/models.json +60 -0
  9. package/locales/bg-BG/providers.json +15 -0
  10. package/locales/de-DE/modelProvider.json +24 -0
  11. package/locales/de-DE/models.json +60 -0
  12. package/locales/de-DE/providers.json +15 -0
  13. package/locales/en-US/modelProvider.json +24 -0
  14. package/locales/en-US/models.json +60 -0
  15. package/locales/en-US/providers.json +15 -0
  16. package/locales/es-ES/modelProvider.json +24 -0
  17. package/locales/es-ES/models.json +60 -0
  18. package/locales/es-ES/providers.json +15 -0
  19. package/locales/fa-IR/modelProvider.json +24 -0
  20. package/locales/fa-IR/models.json +60 -0
  21. package/locales/fa-IR/providers.json +15 -0
  22. package/locales/fr-FR/modelProvider.json +24 -0
  23. package/locales/fr-FR/models.json +60 -0
  24. package/locales/fr-FR/providers.json +15 -0
  25. package/locales/it-IT/modelProvider.json +24 -0
  26. package/locales/it-IT/models.json +60 -0
  27. package/locales/it-IT/providers.json +15 -0
  28. package/locales/ja-JP/modelProvider.json +24 -0
  29. package/locales/ja-JP/models.json +60 -0
  30. package/locales/ja-JP/providers.json +15 -0
  31. package/locales/ko-KR/modelProvider.json +24 -0
  32. package/locales/ko-KR/models.json +60 -0
  33. package/locales/ko-KR/providers.json +15 -0
  34. package/locales/nl-NL/modelProvider.json +24 -0
  35. package/locales/nl-NL/models.json +60 -0
  36. package/locales/nl-NL/providers.json +15 -0
  37. package/locales/pl-PL/modelProvider.json +24 -0
  38. package/locales/pl-PL/models.json +60 -0
  39. package/locales/pl-PL/providers.json +15 -0
  40. package/locales/pt-BR/modelProvider.json +24 -0
  41. package/locales/pt-BR/models.json +60 -0
  42. package/locales/pt-BR/providers.json +15 -0
  43. package/locales/ru-RU/modelProvider.json +24 -0
  44. package/locales/ru-RU/models.json +60 -0
  45. package/locales/ru-RU/providers.json +15 -0
  46. package/locales/tr-TR/modelProvider.json +24 -0
  47. package/locales/tr-TR/models.json +60 -0
  48. package/locales/tr-TR/providers.json +15 -0
  49. package/locales/vi-VN/modelProvider.json +24 -0
  50. package/locales/vi-VN/models.json +60 -0
  51. package/locales/vi-VN/providers.json +15 -0
  52. package/locales/zh-CN/modelProvider.json +24 -0
  53. package/locales/zh-CN/models.json +1109 -1049
  54. package/locales/zh-CN/providers.json +82 -67
  55. package/locales/zh-TW/modelProvider.json +24 -0
  56. package/locales/zh-TW/models.json +60 -0
  57. package/locales/zh-TW/providers.json +15 -0
  58. package/next.config.ts +5 -0
  59. package/package.json +4 -2
  60. package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
  61. package/src/app/[variants]/(main)/settings/provider/(list)/ProviderGrid/index.tsx +6 -3
  62. package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
  63. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
  64. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
  65. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
  66. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
  67. package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
  68. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
  69. package/src/config/aiModels/azureai.ts +18 -0
  70. package/src/config/aiModels/index.ts +6 -0
  71. package/src/config/aiModels/volcengine.ts +83 -0
  72. package/src/config/llm.ts +6 -0
  73. package/src/config/modelProviders/azure.ts +2 -1
  74. package/src/config/modelProviders/azureai.ts +19 -0
  75. package/src/config/modelProviders/index.ts +6 -0
  76. package/src/config/modelProviders/volcengine.ts +23 -0
  77. package/src/database/server/models/aiProvider.ts +2 -0
  78. package/src/libs/agent-runtime/AgentRuntime.ts +17 -8
  79. package/src/libs/agent-runtime/azureai/index.ts +109 -0
  80. package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
  81. package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
  82. package/src/libs/agent-runtime/index.ts +2 -1
  83. package/src/libs/agent-runtime/types/type.ts +5 -0
  84. package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
  85. package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
  86. package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
  87. package/src/libs/agent-runtime/{doubao → volcengine}/index.ts +3 -3
  88. package/src/locales/default/modelProvider.ts +25 -0
  89. package/src/server/modules/AgentRuntime/index.ts +8 -1
  90. package/src/services/chat.ts +16 -4
  91. package/src/types/aiProvider.ts +5 -0
  92. package/src/types/user/settings/keyVaults.ts +2 -0
@@ -1,12 +1,12 @@
1
1
  {
2
- "360zhinao2-o1": {
3
- "description": "360zhinao2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
2
+ "01-ai/Yi-1.5-34B-Chat-16K": {
3
+ "description": "Yi-1.5-34B-Chat-16K 是 Yi-1.5 系列的一个变体,属于开源聊天模型。Yi-1.5 是 Yi 的升级版本,在 500B 个高质量语料上进行了持续预训练,并在 3M 多样化的微调样本上进行了微调。相比于 Yi,Yi-1.5 在编码、数学、推理和指令遵循能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。该模型在大多数基准测试中与更大的模型相当或表现更佳,具有 16K 的上下文长度"
4
4
  },
5
- "360gpt2-o1": {
6
- "description": "360gpt2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
5
+ "01-ai/Yi-1.5-6B-Chat": {
6
+ "description": "Yi-1.5-6B-Chat 是 Yi-1.5 系列的一个变体,属于开源聊天模型。Yi-1.5 是 Yi 的升级版本,在 500B 个高质量语料上进行了持续预训练,并在 3M 多样化的微调样本上进行了微调。相比于 Yi,Yi-1.5 在编码、数学、推理和指令遵循能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。该模型具有 4K、16K 和 32K 的上下文长度版本,预训练总量达到 3.6T 个 token"
7
7
  },
8
- "360gpt2-pro": {
9
- "description": "360GPT2 Pro360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。"
8
+ "01-ai/Yi-1.5-9B-Chat-16K": {
9
+ "description": "Yi-1.5-9B-Chat-16K Yi-1.5 系列的一个变体,属于开源聊天模型。Yi-1.5 Yi 的升级版本,在 500B 个高质量语料上进行了持续预训练,并在 3M 多样化的微调样本上进行了微调。相比于 Yi,Yi-1.5 在编码、数学、推理和指令遵循能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。该模型在同等规模的开源模型中表现最佳"
10
10
  },
11
11
  "360gpt-pro": {
12
12
  "description": "360GPT Pro 作为 360 AI 模型系列的重要成员,以高效的文本处理能力满足多样化的自然语言应用场景,支持长文本理解和多轮对话等功能。"
@@ -14,221 +14,233 @@
14
14
  "360gpt-turbo": {
15
15
  "description": "360GPT Turbo 提供强大的计算和对话能力,具备出色的语义理解和生成效率,是企业和开发者理想的智能助理解决方案。"
16
16
  },
17
- "claude-3-5-haiku-20241022": {
18
- "description": "Claude 3.5 Haiku Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。"
19
- },
20
- "claude-3-5-sonnet-20241022": {
21
- "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
22
- },
23
- "claude-3-5-sonnet-20240620": {
24
- "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
25
- },
26
- "claude-3-haiku-20240307": {
27
- "description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。"
28
- },
29
- "claude-3-sonnet-20240229": {
30
- "description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。"
31
- },
32
- "claude-3-opus-20240229": {
33
- "description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
17
+ "360gpt-turbo-responsibility-8k": {
18
+ "description": "360GPT Turbo Responsibility 8K 强调语义安全和责任导向,专为对内容安全有高度要求的应用场景设计,确保用户体验的准确性与稳健性。"
34
19
  },
35
- "claude-2.1": {
36
- "description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。"
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
37
22
  },
38
- "claude-2.0": {
39
- "description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。"
23
+ "360gpt2-pro": {
24
+ "description": "360GPT2 Pro 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。"
40
25
  },
41
- "gpt-3.5-turbo": {
42
- "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
43
28
  },
44
- "gpt-3.5-turbo-16k": {
45
- "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,适合复杂任务。"
29
+ "4.0Ultra": {
30
+ "description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
46
31
  },
47
- "gpt-4": {
48
- "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
32
+ "Baichuan2-Turbo": {
33
+ "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。"
49
34
  },
50
- "gpt-4o-mini": {
51
- "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。"
35
+ "Baichuan3-Turbo": {
36
+ "description": "针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。"
52
37
  },
53
- "gpt-4o": {
54
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
38
+ "Baichuan3-Turbo-128k": {
39
+ "description": "具备 128K 超长上下文窗口,针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。"
55
40
  },
56
41
  "Baichuan4": {
57
42
  "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
58
43
  },
59
- "Baichuan4-Turbo": {
60
- "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
61
- },
62
44
  "Baichuan4-Air": {
63
45
  "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
64
46
  },
65
- "Baichuan3-Turbo": {
66
- "description": "针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。"
67
- },
68
- "Baichuan3-Turbo-128k": {
69
- "description": "具备 128K 超长上下文窗口,针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。"
47
+ "Baichuan4-Turbo": {
48
+ "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
70
49
  },
71
- "Baichuan2-Turbo": {
72
- "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。"
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
73
52
  },
74
- "anthropic.claude-3-5-sonnet-20241022-v2:0": {
75
- "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "基于 Qwen2.5-14B DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
76
55
  },
77
- "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
78
- "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
79
58
  },
80
- "anthropic.claude-3-5-sonnet-20240620-v1:0": {
81
- "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "基于 Qwen2.5-Math-7B DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
82
61
  },
83
- "anthropic.claude-3-haiku-20240307-v1:0": {
84
- "description": "Claude 3 Haiku 是 Anthropic 最快、最紧凑的模型,提供近乎即时的响应速度。它可以快速回答简单的查询和请求。客户将能够构建模仿人类互动的无缝 AI 体验。Claude 3 Haiku 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
62
+ "Doubao-lite-128k": {
63
+ "description": "拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持 128k 上下文窗口的推理和精调。"
85
64
  },
86
- "anthropic.claude-3-sonnet-20240229-v1:0": {
87
- "description": "Anthropic Claude 3 Sonnet 在智能和速度之间达到了理想的平衡——特别适合企业工作负载。它以低于竞争对手的价格提供最大的效用,并被设计成为可靠的、高耐用的主力机,适用于规模化的 AI 部署。Claude 3 Sonnet 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
65
+ "Doubao-lite-32k": {
66
+ "description": "拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持 32k 上下文窗口的推理和精调。"
88
67
  },
89
- "anthropic.claude-3-opus-20240229-v1:0": {
90
- "description": "Claude 3 Opus 是 Anthropic 最强大的 AI 模型,具有在高度复杂任务上的最先进性能。它可以处理开放式提示和未见过的场景,具有出色的流畅性和类人的理解能力。Claude 3 Opus 展示了生成 AI 可能性的前沿。Claude 3 Opus 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
68
+ "Doubao-lite-4k": {
69
+ "description": "拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持 4k 上下文窗口的推理和精调。"
91
70
  },
92
- "anthropic.claude-v2:1": {
93
- "description": "Claude 2 的更新版,具有双倍的上下文窗口,以及在长文档和 RAG 上下文中的可靠性、幻觉率和基于证据的准确性的改进。"
71
+ "Doubao-pro-128k": {
72
+ "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持 128k 上下文窗口的推理和精调。"
94
73
  },
95
- "anthropic.claude-v2": {
96
- "description": "Anthropic 在从复杂对话和创意内容生成到详细指令跟随的广泛任务中都表现出高度能力的模型。"
74
+ "Doubao-pro-32k": {
75
+ "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持 32k 上下文窗口的推理和精调。"
97
76
  },
98
- "anthropic.claude-instant-v1": {
99
- "description": "一款快速、经济且仍然非常有能力的模型,可以处理包括日常对话、文本分析、总结和文档问答在内的一系列任务。"
77
+ "Doubao-pro-4k": {
78
+ "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持 4k 上下文窗口的推理和精调。"
100
79
  },
101
- "meta.llama3-1-8b-instruct-v1:0": {
102
- "description": "Meta Llama 3.1 8B Instruct 的更新版,包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。"
80
+ "ERNIE-3.5-128K": {
81
+ "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
103
82
  },
104
- "meta.llama3-1-70b-instruct-v1:0": {
105
- "description": "Meta Llama 3.1 70B Instruct 的更新版,包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。"
83
+ "ERNIE-3.5-8K": {
84
+ "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
106
85
  },
107
- "meta.llama3-1-405b-instruct-v1:0": {
108
- "description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最强大的模型,是一款高度先进的对话推理和合成数据生成模型,也可以用作在特定领域进行专业持续预训练或微调的基础。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。"
86
+ "ERNIE-3.5-8K-Preview": {
87
+ "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
109
88
  },
110
- "meta.llama3-8b-instruct-v1:0": {
111
- "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合计算能力和资源有限、边缘设备和更快的训练时间。"
89
+ "ERNIE-4.0-8K-Latest": {
90
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
112
91
  },
113
- "meta.llama3-70b-instruct-v1:0": {
114
- "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合内容创建、对话 AI、语言理解、研发和企业应用。"
92
+ "ERNIE-4.0-8K-Preview": {
93
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
115
94
  },
116
- "deepseek-chat": {
117
- "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
95
+ "ERNIE-4.0-Turbo-8K-Latest": {
96
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
118
97
  },
119
- "deepseek-reasoner": {
120
- "description": "DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
98
+ "ERNIE-4.0-Turbo-8K-Preview": {
99
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
121
100
  },
122
- "Doubao-lite-4k": {
123
- "description": "Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持4k上下文窗口的推理和精调。"
101
+ "ERNIE-Character-8K": {
102
+ "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
124
103
  },
125
- "Doubao-lite-32k": {
126
- "description": "Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持32k上下文窗口的推理和精调。"
104
+ "ERNIE-Lite-Pro-128K": {
105
+ "description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
127
106
  },
128
- "Doubao-lite-128k": {
129
- "description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
107
+ "ERNIE-Speed-128K": {
108
+ "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
130
109
  },
131
- "Doubao-pro-4k": {
132
- "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持4k上下文窗口的推理和精调。"
110
+ "ERNIE-Speed-Pro-128K": {
111
+ "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
133
112
  },
134
- "Doubao-pro-32k": {
135
- "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持32k上下文窗口的推理和精调。"
113
+ "Gryphe/MythoMax-L2-13b": {
114
+ "description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。"
136
115
  },
137
- "Doubao-pro-128k": {
138
- "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持128k上下文窗口的推理和精调。"
116
+ "InternVL2-8B": {
117
+ "description": "InternVL2-8B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
139
118
  },
140
- "accounts/fireworks/models/llama-v3p3-70b-instruct": {
141
- "description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。"
119
+ "InternVL2.5-26B": {
120
+ "description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
142
121
  },
143
- "accounts/fireworks/models/llama-v3p2-3b-instruct": {
144
- "description": "Llama 3.2 3B Instruct Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。"
122
+ "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
+ "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
145
124
  },
146
- "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
147
- "description": "Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。"
125
+ "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
+ "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
148
127
  },
149
- "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
150
- "description": "Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
128
+ "MiniMax-Text-01": {
129
+ "description": " MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
151
130
  },
152
- "accounts/fireworks/models/llama-v3p1-8b-instruct": {
153
- "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
131
+ "Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
+ "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。"
154
133
  },
155
- "accounts/fireworks/models/llama-v3p1-70b-instruct": {
156
- "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
134
+ "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
135
+ "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。"
157
136
  },
158
- "accounts/fireworks/models/llama-v3p1-405b-instruct": {
159
- "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。"
137
+ "OpenGVLab/InternVL2-26B": {
138
+ "description": "InternVL2-26B InternVL 2.0 系列多模态大语言模型中的一员。该模型由 InternViT-6B-448px-V1-5 视觉模型、MLP 投影层和 internlm2-chat-20b 语言模型组成。它在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。InternVL2-26B 使用 8K 上下文窗口训练,能够处理长文本、多图像和视频输入,显著提升了模型在这些任务上的处理能力"
160
139
  },
161
- "accounts/fireworks/models/llama-v3-8b-instruct": {
162
- "description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
140
+ "Phi-3-medium-128k-instruct": {
141
+ "description": "相同的Phi-3-medium模型,但具有更大的上下文大小,适用于RAG或少量提示。"
163
142
  },
164
- "accounts/fireworks/models/llama-v3-70b-instruct": {
165
- "description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
143
+ "Phi-3-medium-4k-instruct": {
144
+ "description": "一个140亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
166
145
  },
167
- "accounts/fireworks/models/llama-v3-8b-instruct-hf": {
168
- "description": "Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。"
146
+ "Phi-3-mini-128k-instruct": {
147
+ "description": "相同的Phi-3-mini模型,但具有更大的上下文大小,适用于RAG或少量提示。"
169
148
  },
170
- "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
171
- "description": "24B 参数模型,具备与更大型模型相当的最先进能力。"
149
+ "Phi-3-mini-4k-instruct": {
150
+ "description": "Phi-3家族中最小的成员,针对质量和低延迟进行了优化。"
172
151
  },
173
- "accounts/fireworks/models/mixtral-8x7b-instruct": {
174
- "description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。"
152
+ "Phi-3-small-128k-instruct": {
153
+ "description": "相同的Phi-3-small模型,但具有更大的上下文大小,适用于RAG或少量提示。"
175
154
  },
176
- "accounts/fireworks/models/mixtral-8x22b-instruct": {
177
- "description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。"
155
+ "Phi-3-small-8k-instruct": {
156
+ "description": "一个70亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
178
157
  },
179
- "accounts/fireworks/models/phi-3-vision-128k-instruct": {
180
- "description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。"
158
+ "Phi-3.5-mini-instruct": {
159
+ "description": "Phi-3-mini模型的更新版。"
181
160
  },
182
- "accounts/fireworks/models/mythomax-l2-13b": {
183
- "description": "MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。"
161
+ "Phi-3.5-vision-instrust": {
162
+ "description": "Phi-3-vision模型的更新版。"
184
163
  },
185
- "accounts/fireworks/models/deepseek-v3": {
186
- "description": "Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。"
164
+ "Pro/OpenGVLab/InternVL2-8B": {
165
+ "description": "InternVL2-8B InternVL 2.0 系列多模态大语言模型中的一员。该模型由 InternViT-300M-448px 视觉模型、MLP 投影层和 internlm2_5-7b-chat 语言模型组成。它在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。InternVL2-8B 使用 8K 上下文窗口训练,能够处理长文本、多图像和视频输入,显著提升了模型在这些任务上的处理能力"
187
166
  },
188
- "accounts/fireworks/models/deepseek-r1": {
189
- "description": "DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。"
167
+ "Pro/Qwen/Qwen2-1.5B-Instruct": {
168
+ "description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。与 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等测试中均显示出显著的性能提升,尽管参数量略少"
190
169
  },
191
- "accounts/fireworks/models/qwen-qwq-32b-preview": {
192
- "description": "Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
170
+ "Pro/Qwen/Qwen2-7B-Instruct": {
171
+ "description": "Qwen2-7B-Instruct Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
193
172
  },
194
- "accounts/fireworks/models/qwen2p5-72b-instruct": {
195
- "description": "Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B1.5B3B、7B、14B、32B72B 不同参数规模,并包含基础版和指令微调版。"
173
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
174
+ "description": "Qwen2-VL-7B-Instruct Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVistaDocVQARealWorldQAMTVQA 等。Qwen2-VL 能够用于高质量的基于视频的问答、对话和内容创作,还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等"
196
175
  },
197
- "accounts/fireworks/models/qwen2-vl-72b-instruct": {
198
- "description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。"
176
+ "Pro/Qwen/Qwen2.5-7B-Instruct": {
177
+ "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
199
178
  },
200
- "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
201
- "description": "Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
179
+ "Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
180
+ "description": "Qwen2.5-Coder-7B-Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
202
181
  },
203
- "accounts/yi-01-ai/models/yi-large": {
204
- "description": "Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。"
182
+ "Pro/THUDM/glm-4-9b-chat": {
183
+ "description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
205
184
  },
206
- "DeepSeek-R1-Distill-Qwen-1.5B": {
207
- "description": "基于 Qwen2.5-Math-1.5B DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
185
+ "Pro/deepseek-ai/DeepSeek-R1": {
186
+ "description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
208
187
  },
209
- "DeepSeek-R1-Distill-Qwen-7B": {
210
- "description": "基于 Qwen2.5-Math-7B DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
188
+ "Pro/deepseek-ai/DeepSeek-V3": {
189
+ "description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
211
190
  },
212
- "DeepSeek-R1-Distill-Qwen-14B": {
213
- "description": "基于 Qwen2.5-14B DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
191
+ "Pro/google/gemma-2-9b-it": {
192
+ "description": "Gemma Google 开发的轻量级、最先进的开放模型系列之一。它是一个仅解码器的大型语言模型,支持英语,提供开放权重、预训练变体和指令微调变体。Gemma 模型适用于各种文本生成任务,包括问答、摘要和推理。该 9B 模型是通过 8 万亿个 tokens 训练而成。其相对较小的规模使其可以在资源有限的环境中部署,如笔记本电脑、台式机或您自己的云基础设施,从而使更多人能够访问最先进的 AI 模型并促进创新"
214
193
  },
215
- "DeepSeek-R1-Distill-Qwen-32B": {
216
- "description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
194
+ "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
195
+ "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 8B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
217
196
  },
218
197
  "QwQ-32B-Preview": {
219
198
  "description": "QwQ-32B-Preview 是一款独具创新的自然语言处理模型,能够高效处理复杂的对话生成与上下文理解任务。"
220
199
  },
221
- "Qwen2.5-72B-Instruct": {
222
- "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
223
- },
224
- "Qwen2.5-32B-Instruct": {
225
- "description": "Qwen2.5-32B-Instruct 是一款 320 亿参数的大语言模型,性能表现均衡,优化中文和多语言场景,支持智能问答、内容生成等应用。"
200
+ "Qwen/QVQ-72B-Preview": {
201
+ "description": "QVQ-72B-Preview 是由 Qwen 团队开发的专注于视觉推理能力的研究型模型,其在复杂场景理解和解决视觉相关的数学问题方面具有独特优势。"
226
202
  },
227
- "Qwen2.5-14B-Instruct": {
228
- "description": "Qwen2.5-14B-Instruct 是一款 140 亿参数的大语言模型,性能表现优秀,优化中文和多语言场景,支持智能问答、内容生成等应用。"
203
+ "Qwen/QwQ-32B-Preview": {
204
+ "description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
229
205
  },
230
- "Qwen2.5-7B-Instruct": {
231
- "description": "Qwen2.5-7B-Instruct 是一款 70 亿参数的大语言模型,支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。优化中文和多语言场景,支持智能问答、内容生成等应用。"
206
+ "Qwen/Qwen2-1.5B-Instruct": {
207
+ "description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。与 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct MMLU、HumanEval、GSM8K、C-Eval IFEval 等测试中均显示出显著的性能提升,尽管参数量略少"
208
+ },
209
+ "Qwen/Qwen2-72B-Instruct": {
210
+ "description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
211
+ },
212
+ "Qwen/Qwen2-7B-Instruct": {
213
+ "description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
214
+ },
215
+ "Qwen/Qwen2-VL-72B-Instruct": {
216
+ "description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够理解超过 20 分钟的视频,用于高质量的基于视频的问答、对话和内容创作。它还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等"
217
+ },
218
+ "Qwen/Qwen2.5-14B-Instruct": {
219
+ "description": "Qwen2.5-14B-Instruct 是阿里云发布的最新大语言模型系列之一。该 14B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
220
+ },
221
+ "Qwen/Qwen2.5-32B-Instruct": {
222
+ "description": "Qwen2.5-32B-Instruct 是阿里云发布的最新大语言模型系列之一。该 32B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
223
+ },
224
+ "Qwen/Qwen2.5-72B-Instruct": {
225
+ "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
226
+ },
227
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
228
+ "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。它支持长达 128K tokens 的输入,可以生成超过 8K tokens 的长文本。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
229
+ },
230
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
231
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
232
+ },
233
+ "Qwen/Qwen2.5-7B-Instruct": {
234
+ "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
235
+ },
236
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
237
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
238
+ },
239
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
240
+ "description": "Qwen2.5 Coder 32B Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
241
+ },
242
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
243
+ "description": "Qwen2.5-Coder-7B-Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
232
244
  },
233
245
  "Qwen2-72B-Instruct": {
234
246
  "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。"
@@ -236,1286 +248,1292 @@
236
248
  "Qwen2-7B-Instruct": {
237
249
  "description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。"
238
250
  },
239
- "Qwen2.5-Coder-32B-Instruct": {
240
- "description": "Qwen2.5-Coder-32B-Instruct 是一款专为代码生成、代码理解和高效开发场景设计的大型语言模型,采用了业界领先的32B参数规模,能够满足多样化的编程需求。"
241
- },
242
- "Qwen2.5-Coder-14B-Instruct": {
243
- "description": "Qwen2.5-Coder-14B-Instruct 是一款基于大规模预训练的编程指令模型,具备强大的代码理解和生成能力,能够高效地处理各种编程任务,特别适合智能代码编写、自动化脚本生成和编程问题解答。"
244
- },
245
251
  "Qwen2-VL-72B": {
246
252
  "description": "Qwen2-VL-72B是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
247
253
  },
248
- "InternVL2.5-26B": {
249
- "description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
254
+ "Qwen2.5-14B-Instruct": {
255
+ "description": "Qwen2.5-14B-Instruct 是一款 140 亿参数的大语言模型,性能表现优秀,优化中文和多语言场景,支持智能问答、内容生成等应用。"
250
256
  },
251
- "InternVL2-8B": {
252
- "description": "InternVL2-8B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
257
+ "Qwen2.5-32B-Instruct": {
258
+ "description": "Qwen2.5-32B-Instruct 是一款 320 亿参数的大语言模型,性能表现均衡,优化中文和多语言场景,支持智能问答、内容生成等应用。"
253
259
  },
254
- "glm-4-9b-chat": {
255
- "description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。"
260
+ "Qwen2.5-72B-Instruct": {
261
+ "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
256
262
  },
257
- "Yi-34B-Chat": {
258
- "description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。"
263
+ "Qwen2.5-7B-Instruct": {
264
+ "description": "Qwen2.5-7B-Instruct 是一款 70 亿参数的大语言模型,支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。优化中文和多语言场景,支持智能问答、内容生成等应用。"
259
265
  },
260
- "deepseek-coder-33B-instruct": {
261
- "description": "DeepSeek Coder 33B 是一个代码语言模型, 基于 2 万亿数据训练而成,其中 87% 为代码, 13% 为中英文语言。模型引入 16K 窗口大小和填空任务,提供项目级别的代码补全和片段填充功能。"
266
+ "Qwen2.5-Coder-14B-Instruct": {
267
+ "description": "Qwen2.5-Coder-14B-Instruct 是一款基于大规模预训练的编程指令模型,具备强大的代码理解和生成能力,能够高效地处理各种编程任务,特别适合智能代码编写、自动化脚本生成和编程问题解答。"
262
268
  },
263
- "codegeex4-all-9b": {
264
- "description": "CodeGeeX4-ALL-9B 是一个多语言代码生成模型,支持包括代码补全和生成、代码解释器、网络搜索、函数调用、仓库级代码问答在内的全面功能,覆盖软件开发的各种场景。是参数少于 10B 的顶尖代码生成模型。"
269
+ "Qwen2.5-Coder-32B-Instruct": {
270
+ "description": "Qwen2.5-Coder-32B-Instruct 是一款专为代码生成、代码理解和高效开发场景设计的大型语言模型,采用了业界领先的32B参数规模,能够满足多样化的编程需求。"
265
271
  },
266
- "o3-mini": {
267
- "description": "o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。"
272
+ "SenseChat": {
273
+ "description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
268
274
  },
269
- "o1-mini": {
270
- "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
275
+ "SenseChat-128K": {
276
+ "description": "基础版本模型 (V4),128K上下文长度,在长文本理解及生成等任务中表现出色"
271
277
  },
272
- "o1": {
273
- "description": "o1是OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。"
278
+ "SenseChat-32K": {
279
+ "description": "基础版本模型 (V4),32K上下文长度,灵活应用于各类场景"
274
280
  },
275
- "o1-preview": {
276
- "description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
281
+ "SenseChat-5": {
282
+ "description": "最新版本模型 (V5.5),128K上下文长度,在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升,比肩GPT-4o"
277
283
  },
278
- "ai21-jamba-1.5-mini": {
279
- "description": "一个52B参数(12B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
284
+ "SenseChat-5-Cantonese": {
285
+ "description": "32K上下文长度,在粤语的对话理解上超越了GPT-4,在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美"
280
286
  },
281
- "ai21-jamba-1.5-large": {
282
- "description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
287
+ "SenseChat-Character": {
288
+ "description": "标准版模型,8K上下文长度,高响应速度"
283
289
  },
284
- "cohere-command-r": {
285
- "description": "Command R是一个可扩展的生成模型,旨在针对RAG和工具使用,使企业能够实现生产级AI。"
290
+ "SenseChat-Character-Pro": {
291
+ "description": "高级版模型,32K上下文长度,能力全面提升,支持中/英文对话"
286
292
  },
287
- "cohere-command-r-plus": {
288
- "description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
293
+ "SenseChat-Turbo": {
294
+ "description": "适用于快速问答、模型微调场景"
289
295
  },
290
- "mistral-nemo": {
291
- "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
296
+ "Skylark2-lite-8k": {
297
+ "description": "云雀(Skylark)第二代模型,Skylark2-lite模型有较高的响应速度,适用于实时性要求高、成本敏感、对模型精度要求不高的场景,上下文窗口长度为8k。"
292
298
  },
293
- "mistral-small": {
294
- "description": "Mistral Small可用于任何需要高效率和低延迟的基于语言的任务。"
299
+ "Skylark2-pro-32k": {
300
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro版本有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为32k。"
295
301
  },
296
- "mistral-large": {
297
- "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。"
302
+ "Skylark2-pro-4k": {
303
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro模型有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为4k。"
298
304
  },
299
- "llama-3.2-11b-vision-instruct": {
300
- "description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
305
+ "Skylark2-pro-character-4k": {
306
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro-character模型具有优秀的角色扮演和聊天能力,擅长根据用户prompt要求扮演不同角色与用户展开聊天,角色风格突出,对话内容自然流畅,适用于构建聊天机器人、虚拟助手和在线客服等场景,有较高的响应速度。"
301
307
  },
302
- "llama-3.2-90b-vision-instruct": {
303
- "description": "适用于视觉理解代理应用的高级图像推理能力。"
308
+ "Skylark2-pro-turbo-8k": {
309
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro-turbo-8k推理更快,成本更低,上下文窗口长度为8k。"
304
310
  },
305
- "llama-3.3-70b-instruct": {
306
- "description": "Llama 3.3 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 12 "
311
+ "THUDM/chatglm3-6b": {
312
+ "description": "ChatGLM3-6BChatGLM 系列的开源模型,由智谱 AI 开发。该模型保留了前代模型的优秀特性,如对话流畅和部署门槛低,同时引入了新的特性。它采用了更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的预训练模型中表现出色。ChatGLM3-6B 支持多轮对话、工具调用、代码执行和 Agent 任务等复杂场景。除对话模型外,还开源了基础模型 ChatGLM-6B-Base 和长文本对话模型 ChatGLM3-6B-32K。该模型对学术研究完全开放,在登记后也允许免费商业使用"
307
313
  },
308
- "meta-llama-3.1-8b-instruct": {
309
- "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
314
+ "THUDM/glm-4-9b-chat": {
315
+ "description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
310
316
  },
311
- "meta-llama-3.1-70b-instruct": {
312
- "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
317
+ "TeleAI/TeleChat2": {
318
+ "description": "TeleChat2大模型是由中国电信从0到1自主研发的生成式语义大模型,支持百科问答、代码生成、长文生成等功能,为用户提供对话咨询服务,能够与用户进行对话互动,回答问题,协助创作,高效便捷地帮助用户获取信息、知识和灵感。模型在幻觉问题、长文生成、逻辑理解等方面均有较出色表现。"
313
319
  },
314
- "meta-llama-3.1-405b-instruct": {
315
- "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
320
+ "TeleAI/TeleMM": {
321
+ "description": "TeleMM多模态大模型是由中国电信自主研发的多模态理解大模型,能够处理文本、图像等多种模态输入,支持图像理解、图表分析等功能,为用户提供跨模态的理解服务。模型能够与用户进行多模态交互,准确理解输入内容,回答问题、协助创作,并高效提供多模态信息和灵感支持。在细粒度感知,逻辑推理等多模态任务上有出色表现"
316
322
  },
317
- "meta-llama-3-8b-instruct": {
318
- "description": "一个多功能的80亿参数模型,针对对话和文本生成任务进行了优化。"
323
+ "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
324
+ "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
319
325
  },
320
- "meta-llama-3-70b-instruct": {
321
- "description": "一个强大的700亿参数模型,在推理、编码和广泛的语言应用方面表现出色。"
326
+ "Yi-34B-Chat": {
327
+ "description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。"
322
328
  },
323
- "Phi-3.5-mini-instruct": {
324
- "description": "Phi-3-mini模型的更新版。"
329
+ "abab5.5-chat": {
330
+ "description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。"
325
331
  },
326
- "Phi-3.5-vision-instrust": {
327
- "description": "Phi-3-vision模型的更新版。"
332
+ "abab5.5s-chat": {
333
+ "description": "专为中文人设对话场景设计,提供高质量的中文对话生成能力,适用于多种应用场景。"
328
334
  },
329
- "Phi-3-mini-4k-instruct": {
330
- "description": "Phi-3家族中最小的成员,针对质量和低延迟进行了优化。"
335
+ "abab6.5g-chat": {
336
+ "description": "专为多语种人设对话设计,支持英文及其他多种语言的高质量对话生成。"
331
337
  },
332
- "Phi-3-mini-128k-instruct": {
333
- "description": "相同的Phi-3-mini模型,但具有更大的上下文大小,适用于RAG或少量提示。"
338
+ "abab6.5s-chat": {
339
+ "description": "适用于广泛的自然语言处理任务,包括文本生成、对话系统等。"
334
340
  },
335
- "Phi-3-small-8k-instruct": {
336
- "description": "一个70亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
341
+ "abab6.5t-chat": {
342
+ "description": "针对中文人设对话场景优化,提供流畅且符合中文表达习惯的对话生成能力。"
337
343
  },
338
- "Phi-3-small-128k-instruct": {
339
- "description": "相同的Phi-3-small模型,但具有更大的上下文大小,适用于RAG或少量提示。"
344
+ "abab7-chat-preview": {
345
+ "description": "相对于abab6.5系列模型在长文、数学、写作等能力有大幅度提升。"
340
346
  },
341
- "Phi-3-medium-4k-instruct": {
342
- "description": "一个140亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
347
+ "accounts/fireworks/models/deepseek-r1": {
348
+ "description": "DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。"
343
349
  },
344
- "Phi-3-medium-128k-instruct": {
345
- "description": "相同的Phi-3-medium模型,但具有更大的上下文大小,适用于RAG或少量提示。"
350
+ "accounts/fireworks/models/deepseek-v3": {
351
+ "description": "Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。"
346
352
  },
347
- "gemini-2.0-pro-exp-02-05": {
348
- "description": "Gemini 2.0 Pro Experimental Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。"
353
+ "accounts/fireworks/models/llama-v3-70b-instruct": {
354
+ "description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
349
355
  },
350
- "gemini-2.0-flash": {
351
- "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
356
+ "accounts/fireworks/models/llama-v3-8b-instruct": {
357
+ "description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
352
358
  },
353
- "gemini-2.0-flash-001": {
354
- "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
359
+ "accounts/fireworks/models/llama-v3-8b-instruct-hf": {
360
+ "description": "Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。"
355
361
  },
356
- "gemini-2.0-flash-lite-preview-02-05": {
357
- "description": "一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。"
362
+ "accounts/fireworks/models/llama-v3p1-405b-instruct": {
363
+ "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。"
358
364
  },
359
- "gemini-exp-1206": {
360
- "description": "Gemini Exp 1206 Google 的实验性多模态AI模型,与历史版本相比有一定的质量提升。"
365
+ "accounts/fireworks/models/llama-v3p1-70b-instruct": {
366
+ "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
361
367
  },
362
- "gemini-2.0-flash-thinking-exp-01-21": {
363
- "description": "Gemini 2.0 Flash Thinking Exp Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
368
+ "accounts/fireworks/models/llama-v3p1-8b-instruct": {
369
+ "description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
364
370
  },
365
- "gemini-2.0-flash-thinking-exp-1219": {
366
- "description": "Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
371
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
372
+ "description": "Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。"
367
373
  },
368
- "gemini-2.0-flash-exp": {
369
- "description": "Gemini 2.0 Flash ExpGoogle 的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。"
374
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
375
+ "description": "Llama 3.2 3B InstructMeta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。"
370
376
  },
371
- "learnlm-1.5-pro-experimental": {
372
- "description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。"
377
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
378
+ "description": "Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
373
379
  },
374
- "gemini-1.5-flash-002": {
375
- "description": "Gemini 1.5 Flash 002 是一款高效的多模态模型,支持广泛应用的扩展。"
380
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
381
+ "description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。"
376
382
  },
377
- "gemini-1.5-flash-001": {
378
- "description": "Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。"
383
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
384
+ "description": "24B 参数模型,具备与更大型模型相当的最先进能力。"
379
385
  },
380
- "gemini-1.5-pro-002": {
381
- "description": "Gemini 1.5 Pro 002 是最新的生产就绪模型,提供更高质量的输出,特别在数学、长上下文和视觉任务方面有显著提升。"
386
+ "accounts/fireworks/models/mixtral-8x22b-instruct": {
387
+ "description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。"
382
388
  },
383
- "gemini-1.5-pro-001": {
384
- "description": "Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。"
389
+ "accounts/fireworks/models/mixtral-8x7b-instruct": {
390
+ "description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。"
385
391
  },
386
- "gemini-1.5-flash-8b": {
387
- "description": "Gemini 1.5 Flash 8B 是一款高效的多模态模型,支持广泛应用的扩展。"
392
+ "accounts/fireworks/models/mythomax-l2-13b": {
393
+ "description": "MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。"
388
394
  },
389
- "gemini-1.5-flash-8b-exp-0924": {
390
- "description": "Gemini 1.5 Flash 8B 0924 是最新的实验性模型,在文本和多模态用例中都有显著的性能提升。"
395
+ "accounts/fireworks/models/phi-3-vision-128k-instruct": {
396
+ "description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。"
391
397
  },
392
- "gemini-1.0-pro-001": {
393
- "description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。"
398
+ "accounts/fireworks/models/qwen-qwq-32b-preview": {
399
+ "description": "Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
394
400
  },
395
- "gemini-1.0-pro-002": {
396
- "description": "Gemini 1.0 Pro 002 (Tuning) 提供出色的多模态支持,专注于复杂任务的有效解决。"
401
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
402
+ "description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。"
397
403
  },
398
- "deepseek-r1-distill-llama-70b": {
399
- "description": "DeepSeek-R1-Distill 系列模型通过知识蒸馏技术,将 DeepSeek-R1 生成的样本对 QwenLlama 等开源模型进行微调后得到。"
404
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
405
+ "description": "Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。"
400
406
  },
401
- "llama-3.3-70b-versatile": {
402
- "description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
407
+ "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
408
+ "description": "Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
403
409
  },
404
- "llama-3.2-11b-vision-preview": {
405
- "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
410
+ "accounts/yi-01-ai/models/yi-large": {
411
+ "description": "Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。"
406
412
  },
407
- "llama-3.2-90b-vision-preview": {
408
- "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
413
+ "ai21-jamba-1.5-large": {
414
+ "description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
409
415
  },
410
- "llama-3.1-8b-instant": {
411
- "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。"
416
+ "ai21-jamba-1.5-mini": {
417
+ "description": "一个52B参数(12B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
412
418
  },
413
- "llama-3.1-70b-versatile": {
414
- "description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。"
419
+ "anthropic.claude-3-5-sonnet-20240620-v1:0": {
420
+ "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
415
421
  },
416
- "llama3-groq-8b-8192-tool-use-preview": {
417
- "description": "Llama 3 Groq 8B Tool Use 是针对高效工具使用优化的模型,支持快速并行计算。"
422
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
423
+ "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
418
424
  },
419
- "llama3-groq-70b-8192-tool-use-preview": {
420
- "description": "Llama 3 Groq 70B Tool Use 提供强大的工具调用能力,支持复杂任务的高效处理。"
425
+ "anthropic.claude-3-haiku-20240307-v1:0": {
426
+ "description": "Claude 3 Haiku Anthropic 最快、最紧凑的模型,提供近乎即时的响应速度。它可以快速回答简单的查询和请求。客户将能够构建模仿人类互动的无缝 AI 体验。Claude 3 Haiku 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
421
427
  },
422
- "llama3-8b-8192": {
423
- "description": "Meta Llama 3 8B 带来优质的推理效能,适合多场景应用需求。"
428
+ "anthropic.claude-3-opus-20240229-v1:0": {
429
+ "description": "Claude 3 Opus 是 Anthropic 最强大的 AI 模型,具有在高度复杂任务上的最先进性能。它可以处理开放式提示和未见过的场景,具有出色的流畅性和类人的理解能力。Claude 3 Opus 展示了生成 AI 可能性的前沿。Claude 3 Opus 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
424
430
  },
425
- "llama3-70b-8192": {
426
- "description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。"
431
+ "anthropic.claude-3-sonnet-20240229-v1:0": {
432
+ "description": "Anthropic Claude 3 Sonnet 在智能和速度之间达到了理想的平衡——特别适合企业工作负载。它以低于竞争对手的价格提供最大的效用,并被设计成为可靠的、高耐用的主力机,适用于规模化的 AI 部署。Claude 3 Sonnet 可以处理图像并返回文本输出,具有 200K 的上下文窗口。"
433
+ },
434
+ "anthropic.claude-instant-v1": {
435
+ "description": "一款快速、经济且仍然非常有能力的模型,可以处理包括日常对话、文本分析、总结和文档问答在内的一系列任务。"
436
+ },
437
+ "anthropic.claude-v2": {
438
+ "description": "Anthropic 在从复杂对话和创意内容生成到详细指令跟随的广泛任务中都表现出高度能力的模型。"
427
439
  },
428
- "gemma2-9b-it": {
429
- "description": "Gemma 2 9B 是一款优化用于特定任务和工具整合的模型。"
440
+ "anthropic.claude-v2:1": {
441
+ "description": "Claude 2 的更新版,具有双倍的上下文窗口,以及在长文档和 RAG 上下文中的可靠性、幻觉率和基于证据的准确性的改进。"
430
442
  },
431
- "gemma-7b-it": {
432
- "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
443
+ "anthropic/claude-3-haiku": {
444
+ "description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。"
433
445
  },
434
- "mixtral-8x7b-32768": {
435
- "description": "Mixtral 8x7B 提供高容错的并行计算能力,适合复杂任务。"
446
+ "anthropic/claude-3-opus": {
447
+ "description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
436
448
  },
437
- "llava-v1.5-7b-4096-preview": {
438
- "description": "LLaVA 1.5 7B 提供视觉处理能力融合,通过视觉信息输入生成复杂输出。"
449
+ "anthropic/claude-3.5-haiku": {
450
+ "description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。"
439
451
  },
440
- "qwen-turbo": {
441
- "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
452
+ "anthropic/claude-3.5-sonnet": {
453
+ "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
442
454
  },
443
- "qwen-plus": {
444
- "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
455
+ "aya": {
456
+ "description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
445
457
  },
446
- "qwen-max": {
447
- "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
458
+ "aya:35b": {
459
+ "description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
448
460
  },
449
- "qwen-long": {
450
- "description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。"
461
+ "charglm-3": {
462
+ "description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
451
463
  },
452
- "qwen-vl-plus-latest": {
453
- "description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。"
464
+ "chatgpt-4o-latest": {
465
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
454
466
  },
455
- "qwen-vl-max-latest": {
456
- "description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。"
467
+ "claude-2.0": {
468
+ "description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。"
457
469
  },
458
- "qwen-math-turbo-latest": {
459
- "description": "通义千问数学模型是专门用于数学解题的语言模型。"
470
+ "claude-2.1": {
471
+ "description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。"
460
472
  },
461
- "qwen-math-plus-latest": {
462
- "description": "通义千问数学模型是专门用于数学解题的语言模型。"
473
+ "claude-3-5-haiku-20241022": {
474
+ "description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。"
463
475
  },
464
- "qwen-coder-turbo-latest": {
465
- "description": "通义千问代码模型。"
476
+ "claude-3-5-sonnet-20240620": {
477
+ "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
466
478
  },
467
- "qwen2.5-7b-instruct": {
468
- "description": "通义千问2.5对外开源的7B规模的模型。"
479
+ "claude-3-5-sonnet-20241022": {
480
+ "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
469
481
  },
470
- "qwen2.5-14b-instruct": {
471
- "description": "通义千问2.5对外开源的14B规模的模型。"
482
+ "claude-3-haiku-20240307": {
483
+ "description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。"
472
484
  },
473
- "qwen2.5-32b-instruct": {
474
- "description": "通义千问2.5对外开源的32B规模的模型。"
485
+ "claude-3-opus-20240229": {
486
+ "description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
475
487
  },
476
- "qwen2.5-72b-instruct": {
477
- "description": "通义千问2.5对外开源的72B规模的模型。"
488
+ "claude-3-sonnet-20240229": {
489
+ "description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。"
478
490
  },
479
- "qwen2.5-math-1.5b-instruct": {
480
- "description": "Qwen-Math 模型具有强大的数学解题能力。"
491
+ "codegeex-4": {
492
+ "description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。"
481
493
  },
482
- "qwen2.5-math-7b-instruct": {
483
- "description": "Qwen-Math 模型具有强大的数学解题能力。"
494
+ "codegeex4-all-9b": {
495
+ "description": "CodeGeeX4-ALL-9B 是一个多语言代码生成模型,支持包括代码补全和生成、代码解释器、网络搜索、函数调用、仓库级代码问答在内的全面功能,覆盖软件开发的各种场景。是参数少于 10B 的顶尖代码生成模型。"
484
496
  },
485
- "qwen2.5-math-72b-instruct": {
486
- "description": "Qwen-Math 模型具有强大的数学解题能力。"
497
+ "codegemma": {
498
+ "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
487
499
  },
488
- "qwen2.5-coder-1.5b-instruct": {
489
- "description": "通义千问代码模型开源版。"
500
+ "codegemma:2b": {
501
+ "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
490
502
  },
491
- "qwen2.5-coder-7b-instruct": {
492
- "description": "通义千问代码模型开源版。"
503
+ "codellama": {
504
+ "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
493
505
  },
494
- "qwen-vl-v1": {
495
- "description": " Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。"
506
+ "codellama/CodeLlama-34b-Instruct-hf": {
507
+ "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
496
508
  },
497
- "qwen-vl-chat-v1": {
498
- "description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。"
509
+ "codellama:13b": {
510
+ "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
499
511
  },
500
- "moonshot-v1-8k": {
501
- "description": "Moonshot V1 8K 专为生成短文本任务设计,具有高效的处理性能,能够处理8,192个tokens,非常适合简短对话、速记和快速内容生成。"
512
+ "codellama:34b": {
513
+ "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
502
514
  },
503
- "moonshot-v1-32k": {
504
- "description": "Moonshot V1 32K 提供中等长度的上下文处理能力,能够处理32,768个tokens,特别适合生成各种长文档和复杂对话,应用于内容创作、报告生成和对话系统等领域。"
515
+ "codellama:70b": {
516
+ "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
505
517
  },
506
- "moonshot-v1-128k": {
507
- "description": "Moonshot V1 128K 是一款拥有超长上下文处理能力的模型,适用于生成超长文本,满足复杂的生成任务需求,能够处理多达128,000个tokens的内容,非常适合科研、学术和大型文档生成等应用场景。"
518
+ "codeqwen": {
519
+ "description": "CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。"
508
520
  },
509
- "yi-lightning": {
510
- "description": "最新高性能模型,保证高质量输出同时,推理速度大幅提升。"
521
+ "codestral": {
522
+ "description": "Codestral 是 Mistral AI 的首款代码模型,为代码生成任务提供优异支持。"
511
523
  },
512
- "yi-spark": {
513
- "description": "小而精悍,轻量极速模型。提供强化数学运算和代码编写能力。"
524
+ "codestral-latest": {
525
+ "description": "Codestral是专注于代码生成的尖端生成模型,优化了中间填充和代码补全任务。"
514
526
  },
515
- "yi-medium": {
516
- "description": "中型尺寸模型升级微调,能力均衡,性价比高。深度优化指令遵循能力。"
527
+ "cognitivecomputations/dolphin-mixtral-8x22b": {
528
+ "description": "Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。"
517
529
  },
518
- "yi-medium-200k": {
519
- "description": "200K 超长上下文窗口,提供长文本深度理解和生成能力。"
530
+ "cohere-command-r": {
531
+ "description": "Command R是一个可扩展的生成模型,旨在针对RAG和工具使用,使企业能够实现生产级AI。"
520
532
  },
521
- "yi-large-turbo": {
522
- "description": "超高性价比、卓越性能。根据性能和推理速度、成本,进行平衡性高精度调优。"
533
+ "cohere-command-r-plus": {
534
+ "description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
523
535
  },
524
- "yi-large-rag": {
525
- "description": "基于 yi-large 超强模型的高阶服务,结合检索与生成技术提供精准答案,实时全网检索信息服务。"
536
+ "command-r": {
537
+ "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
526
538
  },
527
- "yi-large-fc": {
528
- "description": " yi-large 模型的基础上支持并强化了工具调用的能力,适用于各种需要搭建 agent 或 workflow 的业务场景。"
539
+ "command-r-plus": {
540
+ "description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。"
529
541
  },
530
- "yi-large": {
531
- "description": "全新千亿参数模型,提供超强问答及文本生成能力。"
542
+ "dall-e-2": {
543
+ "description": "第二代 DALL·E 模型,支持更真实、准确的图像生成,分辨率是第一代的4倍"
532
544
  },
533
- "yi-vision": {
534
- "description": "复杂视觉任务模型,提供高性能图片理解、分析能力。"
545
+ "dall-e-3": {
546
+ "description": "最新的 DALL·E 模型,于2023年11月发布。支持更真实、准确的图像生成,具有更强的细节表现力"
535
547
  },
536
- "yi-large-preview": {
537
- "description": "初期版本,推荐使用 yi-large(新版本)。"
548
+ "databricks/dbrx-instruct": {
549
+ "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。"
538
550
  },
539
- "yi-lightning-lite": {
540
- "description": "轻量化版本,推荐使用 yi-lightning。"
551
+ "deepseek-ai/DeepSeek-R1": {
552
+ "description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
541
553
  },
542
- "glm-4-flash": {
543
- "description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且免费。"
554
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
555
+ "description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
544
556
  },
545
- "glm-4-flashx": {
546
- "description": "GLM-4-FlashX 是Flash的增强版本,超快推理速度。"
557
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
558
+ "description": "DeepSeek-R1-Distill-Llama-8B 是基于 Llama-3.1-8B 开发的蒸馏模型。该模型使用 DeepSeek-R1 生成的样本进行微调,展现出优秀的推理能力。在多个基准测试中表现不俗,其中在 MATH-500 上达到了 89.1% 的准确率,在 AIME 2024 上达到了 50.4% 的通过率,在 CodeForces 上获得了 1205 的评分,作为 8B 规模的模型展示了较强的数学和编程能力。"
547
559
  },
548
- "glm-4-long": {
549
- "description": "GLM-4-Long 支持超长文本输入,适合记忆型任务与大规模文档处理。"
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
561
+ "description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
550
562
  },
551
- "glm-4-air": {
552
- "description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
563
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
564
+ "description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
553
565
  },
554
- "glm-4-airx": {
555
- "description": "GLM-4-AirX 提供 GLM-4-Air 的高效版本,推理速度可达其2.6倍。"
566
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
567
+ "description": "DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。在 AIME 2024、MATH-500、GPQA Diamond 等多个基准测试中都取得了优异成绩,其中在 MATH-500 上达到了 94.3% 的准确率,展现出强大的数学推理能力。"
556
568
  },
557
- "glm-4-alltools": {
558
- "description": "GLM-4-AllTools 是一个多功能智能体模型,优化以支持复杂指令规划与工具调用,如网络浏览、代码解释和文本生成,适用于多任务执行。"
569
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
570
+ "description": "DeepSeek-R1-Distill-Qwen-7B 是基于 Qwen2.5-Math-7B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。在多个基准测试中表现出色,其中在 MATH-500 上达到了 92.8% 的准确率,在 AIME 2024 上达到了 55.5% 的通过率,在 CodeForces 上获得了 1189 的评分,作为 7B 规模的模型展示了较强的数学和编程能力。"
559
571
  },
560
- "glm-4-plus": {
561
- "description": "GLM-4-Plus 作为高智能旗舰,具备强大的处理长文本和复杂任务的能力,性能全面提升。"
572
+ "deepseek-ai/DeepSeek-V2.5": {
573
+ "description": "DeepSeek-V2.5 是 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的升级版本,集成了两个先前版本的通用和编码能力。该模型在多个方面进行了优化,包括写作和指令跟随能力,更好地与人类偏好保持一致。DeepSeek-V2.5 在各种评估基准上都取得了显著的提升,如 AlpacaEval 2.0、ArenaHard、AlignBench 和 MT-Bench 等。"
562
574
  },
563
- "glm-4-0520": {
564
- "description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。"
575
+ "deepseek-ai/DeepSeek-V3": {
576
+ "description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
565
577
  },
566
- "glm-4": {
567
- "description": "GLM-4 是发布于2024年1月的旧旗舰版本,目前已被更强的 GLM-4-0520 取代。"
578
+ "deepseek-ai/deepseek-llm-67b-chat": {
579
+ "description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
568
580
  },
569
- "glm-4v-plus": {
570
- "description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。"
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "最先进的高效 LLM,擅长推理、数学和编程。"
571
583
  },
572
- "glm-4v": {
573
- "description": "GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。"
584
+ "deepseek-ai/deepseek-vl2": {
585
+ "description": "DeepSeek-VL2 是一个基于 DeepSeekMoE-27B 开发的混合专家(MoE)视觉语言模型,采用稀疏激活的 MoE 架构,在仅激活 4.5B 参数的情况下实现了卓越性能。该模型在视觉问答、光学字符识别、文档/表格/图表理解和视觉定位等多个任务中表现优异。"
574
586
  },
575
- "charglm-3": {
576
- "description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
587
+ "deepseek-chat": {
588
+ "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
577
589
  },
578
- "emohaa": {
579
- "description": "Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。"
590
+ "deepseek-coder-33B-instruct": {
591
+ "description": "DeepSeek Coder 33B 是一个代码语言模型, 基于 2 万亿数据训练而成,其中 87% 为代码, 13% 为中英文语言。模型引入 16K 窗口大小和填空任务,提供项目级别的代码补全和片段填充功能。"
580
592
  },
581
- "360gpt-turbo-responsibility-8k": {
582
- "description": "360GPT Turbo Responsibility 8K 强调语义安全和责任导向,专为对内容安全有高度要求的应用场景设计,确保用户体验的准确性与稳健性。"
593
+ "deepseek-coder-v2": {
594
+ "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
583
595
  },
584
- "ERNIE-3.5-8K": {
585
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
596
+ "deepseek-coder-v2:236b": {
597
+ "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
586
598
  },
587
- "ERNIE-3.5-8K-Preview": {
588
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
599
+ "deepseek-r1": {
600
+ "description": "DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
589
601
  },
590
- "ERNIE-3.5-128K": {
591
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
602
+ "deepseek-r1-distill-llama-70b": {
603
+ "description": "DeepSeek-R1-Distill-Llama-70B 是一个基于 Llama-3.3-70B-Instruct 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
592
604
  },
593
- "ERNIE-4.0-8K-Latest": {
594
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
605
+ "deepseek-r1-distill-llama-8b": {
606
+ "description": "DeepSeek-R1-Distill-Llama-8B 是一个基于 Llama-3.1-8B 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
595
607
  },
596
- "ERNIE-4.0-8K-Preview": {
597
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
608
+ "deepseek-r1-distill-qwen-1.5b": {
609
+ "description": "DeepSeek-R1-Distill-Qwen-1.5B 是一个基于 Qwen2.5-Math-1.5B 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
598
610
  },
599
- "ERNIE-4.0-Turbo-8K-Latest": {
600
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
611
+ "deepseek-r1-distill-qwen-14b": {
612
+ "description": "DeepSeek-R1-Distill-Qwen-14B 是一个基于 Qwen2.5-14B 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
601
613
  },
602
- "ERNIE-4.0-Turbo-8K-Preview": {
603
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
614
+ "deepseek-r1-distill-qwen-32b": {
615
+ "description": "DeepSeek-R1-Distill-Qwen-32B 是一个基于 Qwen2.5-32B 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
604
616
  },
605
- "ERNIE-Lite-Pro-128K": {
606
- "description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
617
+ "deepseek-r1-distill-qwen-7b": {
618
+ "description": "DeepSeek-R1-Distill-Qwen-7B 是一个基于 Qwen2.5-Math-7B 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
607
619
  },
608
- "ERNIE-Speed-Pro-128K": {
609
- "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
620
+ "deepseek-reasoner": {
621
+ "description": "DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
610
622
  },
611
- "ERNIE-Speed-128K": {
612
- "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
623
+ "deepseek-v2": {
624
+ "description": "DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。"
613
625
  },
614
- "ERNIE-Character-8K": {
615
- "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
626
+ "deepseek-v2:236b": {
627
+ "description": "DeepSeek V2 236B 是 DeepSeek 的设计代码模型,提供强大的代码生成能力。"
616
628
  },
617
- "hunyuan-lite": {
618
- "description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。"
629
+ "deepseek-v3": {
630
+ "description": "DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。"
619
631
  },
620
- "hunyuan-standard": {
621
- "description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-32K 性价比相对更高,在平衡效果、价格的同时,可对实现对长文本输入的处理。"
632
+ "deepseek/deepseek-chat": {
633
+ "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
622
634
  },
623
- "hunyuan-standard-256K": {
624
- "description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-256K 在长度和效果上进一步突破,极大的扩展了可输入长度。"
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
625
637
  },
626
- "hunyuan-turbo": {
627
- "description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
628
640
  },
629
- "hunyuan-pro": {
630
- "description": "万亿级参数规模 MOE-32K 长文模型。在各种 benchmark 上达到绝对领先的水平,复杂指令和推理,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。"
641
+ "emohaa": {
642
+ "description": "Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。"
631
643
  },
632
- "hunyuan-vision": {
633
- "description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
644
+ "ernie-3.5-128k": {
645
+ "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
634
646
  },
635
- "hunyuan-code": {
636
- "description": "混元最新代码生成模型,经过 200B 高质量代码数据增训基座模型,迭代半年高质量 SFT 数据训练,上下文长窗口长度增大到 8K,五大语言代码生成自动评测指标上位居前列;五大语言10项考量各方面综合代码任务人工高质量评测上,性能处于第一梯队"
647
+ "ernie-3.5-8k": {
648
+ "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
637
649
  },
638
- "hunyuan-functioncall": {
639
- "description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。"
650
+ "ernie-3.5-8k-preview": {
651
+ "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
640
652
  },
641
- "hunyuan-role": {
642
- "description": "混元最新版角色扮演模型,混元官方精调训练推出的角色扮演模型,基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。"
653
+ "ernie-4.0-8k-latest": {
654
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
643
655
  },
644
- "step-1-flash": {
645
- "description": "高速模型,适合实时对话。"
656
+ "ernie-4.0-8k-preview": {
657
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
646
658
  },
647
- "step-1-8k": {
648
- "description": "小型模型,适合轻量级任务。"
659
+ "ernie-4.0-turbo-128k": {
660
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
649
661
  },
650
- "step-1-32k": {
651
- "description": "支持中等长度的对话,适用于多种应用场景。"
662
+ "ernie-4.0-turbo-8k-latest": {
663
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
652
664
  },
653
- "step-1-128k": {
654
- "description": "平衡性能与成本,适合一般场景。"
665
+ "ernie-4.0-turbo-8k-preview": {
666
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
655
667
  },
656
- "step-1-256k": {
657
- "description": "具备超长上下文处理能力,尤其适合长文档分析。"
668
+ "ernie-char-8k": {
669
+ "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
658
670
  },
659
- "step-2-16k": {
660
- "description": "step-2模型的实验版本,包含最新的特性,滚动更新中。不推荐在正式生产环境使用。"
671
+ "ernie-char-fiction-8k": {
672
+ "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
661
673
  },
662
- "step-1v-8k": {
663
- "description": "小型视觉模型,适合基本的图文任务。"
674
+ "ernie-lite-8k": {
675
+ "description": "ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。"
664
676
  },
665
- "step-1v-32k": {
666
- "description": "支持视觉输入,增强多模态交互体验。"
677
+ "ernie-lite-pro-128k": {
678
+ "description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
667
679
  },
668
- "step-1.5v-mini": {
669
- "description": "该模型拥有强大的视频理解能力。"
680
+ "ernie-novel-8k": {
681
+ "description": "百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。"
670
682
  },
671
- "lite": {
672
- "description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
683
+ "ernie-speed-128k": {
684
+ "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
673
685
  },
674
- "generalv3": {
675
- "description": "Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。"
686
+ "ernie-speed-pro-128k": {
687
+ "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
676
688
  },
677
- "pro-128k": {
678
- "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
689
+ "ernie-tiny-8k": {
690
+ "description": "ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。"
679
691
  },
680
- "generalv3.5": {
681
- "description": "Spark Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。"
692
+ "gemini-1.0-pro-001": {
693
+ "description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。"
682
694
  },
683
- "max-32k": {
684
- "description": "Spark Max 32K 配置了大上下文处理能力,更强的上下文理解和逻辑推理能力,支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景"
695
+ "gemini-1.0-pro-002": {
696
+ "description": "Gemini 1.0 Pro 002 (Tuning) 提供出色的多模态支持,专注于复杂任务的有效解决。"
685
697
  },
686
- "4.0Ultra": {
687
- "description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
698
+ "gemini-1.0-pro-latest": {
699
+ "description": "Gemini 1.0 Pro 是Google的高性能AI模型,专为广泛任务扩展而设计。"
688
700
  },
689
- "gpt-4o-2024-08-06": {
690
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
701
+ "gemini-1.5-flash-001": {
702
+ "description": "Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。"
691
703
  },
692
- "gpt-4o-2024-05-13": {
693
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
704
+ "gemini-1.5-flash-002": {
705
+ "description": "Gemini 1.5 Flash 002 是一款高效的多模态模型,支持广泛应用的扩展。"
694
706
  },
695
- "chatgpt-4o-latest": {
696
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
707
+ "gemini-1.5-flash-8b": {
708
+ "description": "Gemini 1.5 Flash 8B 是一款高效的多模态模型,支持广泛应用的扩展。"
697
709
  },
698
- "gpt-4-turbo": {
699
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
710
+ "gemini-1.5-flash-8b-exp-0924": {
711
+ "description": "Gemini 1.5 Flash 8B 0924 是最新的实验性模型,在文本和多模态用例中都有显著的性能提升。"
700
712
  },
701
- "gpt-4-turbo-2024-04-09": {
702
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
713
+ "gemini-1.5-flash-exp-0827": {
714
+ "description": "Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
703
715
  },
704
- "gpt-4-turbo-preview": {
705
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
716
+ "gemini-1.5-flash-latest": {
717
+ "description": "Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
706
718
  },
707
- "gpt-4-0125-preview": {
708
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
719
+ "gemini-1.5-pro-001": {
720
+ "description": "Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。"
709
721
  },
710
- "gpt-4-1106-preview": {
711
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
722
+ "gemini-1.5-pro-002": {
723
+ "description": "Gemini 1.5 Pro 002 是最新的生产就绪模型,提供更高质量的输出,特别在数学、长上下文和视觉任务方面有显著提升。"
712
724
  },
713
- "gpt-4-0613": {
714
- "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
725
+ "gemini-1.5-pro-exp-0801": {
726
+ "description": "Gemini 1.5 Pro 0801 提供出色的多模态处理能力,为应用开发带来更大灵活性。"
715
727
  },
716
- "gpt-4-32k": {
717
- "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
728
+ "gemini-1.5-pro-exp-0827": {
729
+ "description": "Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。"
718
730
  },
719
- "gpt-4-32k-0613": {
720
- "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
731
+ "gemini-1.5-pro-latest": {
732
+ "description": "Gemini 1.5 Pro 支持高达200万个tokens,是中型多模态模型的理想选择,适用于复杂任务的多方面支持。"
721
733
  },
722
- "gpt-3.5-turbo-0125": {
723
- "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
734
+ "gemini-2.0-flash": {
735
+ "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
724
736
  },
725
- "gpt-3.5-turbo-1106": {
726
- "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
737
+ "gemini-2.0-flash-001": {
738
+ "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
727
739
  },
728
- "gpt-3.5-turbo-instruct": {
729
- "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
740
+ "gemini-2.0-flash-exp": {
741
+ "description": "Gemini 2.0 Flash Exp Google 的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。"
730
742
  },
731
- "gpt-35-turbo": {
732
- "description": "GPT 3.5 Turbo,OpenAI提供的高效模型,适用于聊天和文本生成任务,支持并行函数调用。"
743
+ "gemini-2.0-flash-lite-preview-02-05": {
744
+ "description": "一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。"
733
745
  },
734
- "gpt-35-turbo-16k": {
735
- "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,适合复杂任务。"
746
+ "gemini-2.0-flash-thinking-exp-01-21": {
747
+ "description": "Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
736
748
  },
737
- "gpt-4-vision-preview": {
738
- "description": "GPT-4 视觉预览版,专为图像分析和处理任务设计。"
749
+ "gemini-2.0-flash-thinking-exp-1219": {
750
+ "description": "Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
739
751
  },
740
- "gemini-1.5-flash-latest": {
741
- "description": "Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
752
+ "gemini-2.0-pro-exp-02-05": {
753
+ "description": "Gemini 2.0 Pro Experimental Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。"
742
754
  },
743
- "gemini-1.5-flash-exp-0827": {
744
- "description": "Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
755
+ "gemini-exp-1206": {
756
+ "description": "Gemini Exp 1206 Google 的实验性多模态AI模型,与历史版本相比有一定的质量提升。"
745
757
  },
746
- "gemini-1.5-pro-latest": {
747
- "description": "Gemini 1.5 Pro 支持高达200万个tokens,是中型多模态模型的理想选择,适用于复杂任务的多方面支持。"
758
+ "gemma-7b-it": {
759
+ "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
748
760
  },
749
- "gemini-1.5-pro-exp-0827": {
750
- "description": "Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。"
761
+ "gemma2": {
762
+ "description": "Gemma 2 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
751
763
  },
752
- "gemini-1.5-pro-exp-0801": {
753
- "description": "Gemini 1.5 Pro 0801 提供出色的多模态处理能力,为应用开发带来更大灵活性。"
764
+ "gemma2-9b-it": {
765
+ "description": "Gemma 2 9B 是一款优化用于特定任务和工具整合的模型。"
754
766
  },
755
- "gemini-1.0-pro-latest": {
756
- "description": "Gemini 1.0 Pro Google的高性能AI模型,专为广泛任务扩展而设计。"
767
+ "gemma2:27b": {
768
+ "description": "Gemma 2 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
757
769
  },
758
- "open-mistral-nemo": {
759
- "description": "Mistral Nemo是一个与Nvidia合作开发的12B模型,提供出色的推理和编码性能,易于集成和替换。"
770
+ "gemma2:2b": {
771
+ "description": "Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
760
772
  },
761
- "mistral-small-latest": {
762
- "description": "Mistral Small是成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。"
773
+ "generalv3": {
774
+ "description": "Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。"
763
775
  },
764
- "mistral-large-latest": {
765
- "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。"
776
+ "generalv3.5": {
777
+ "description": "Spark Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。"
766
778
  },
767
- "codestral-latest": {
768
- "description": "Codestral是专注于代码生成的尖端生成模型,优化了中间填充和代码补全任务。"
779
+ "glm-4": {
780
+ "description": "GLM-4 是发布于2024年1月的旧旗舰版本,目前已被更强的 GLM-4-0520 取代。"
769
781
  },
770
- "pixtral-12b-2409": {
771
- "description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。"
782
+ "glm-4-0520": {
783
+ "description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。"
772
784
  },
773
- "ministral-3b-latest": {
774
- "description": "Ministral 3B 是Mistral的世界顶级边缘模型。"
785
+ "glm-4-9b-chat": {
786
+ "description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。"
775
787
  },
776
- "ministral-8b-latest": {
777
- "description": "Ministral 8B 是Mistral的性价比极高的边缘模型。"
788
+ "glm-4-air": {
789
+ "description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
778
790
  },
779
- "open-mistral-7b": {
780
- "description": "Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。"
791
+ "glm-4-airx": {
792
+ "description": "GLM-4-AirX 提供 GLM-4-Air 的高效版本,推理速度可达其2.6倍。"
781
793
  },
782
- "open-mixtral-8x7b": {
783
- "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。"
794
+ "glm-4-alltools": {
795
+ "description": "GLM-4-AllTools 是一个多功能智能体模型,优化以支持复杂指令规划与工具调用,如网络浏览、代码解释和文本生成,适用于多任务执行。"
784
796
  },
785
- "open-mixtral-8x22b": {
786
- "description": "Mixtral 8x22B是一个更大的专家模型,专注于复杂任务,提供出色的推理能力和更高的吞吐量。"
797
+ "glm-4-flash": {
798
+ "description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且免费。"
787
799
  },
788
- "open-codestral-mamba": {
789
- "description": "Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。"
800
+ "glm-4-flashx": {
801
+ "description": "GLM-4-FlashX 是Flash的增强版本,超快推理速度。"
790
802
  },
791
- "abab6.5s-chat": {
792
- "description": "适用于广泛的自然语言处理任务,包括文本生成、对话系统等。"
803
+ "glm-4-long": {
804
+ "description": "GLM-4-Long 支持超长文本输入,适合记忆型任务与大规模文档处理。"
793
805
  },
794
- "abab6.5g-chat": {
795
- "description": "专为多语种人设对话设计,支持英文及其他多种语言的高质量对话生成。"
806
+ "glm-4-plus": {
807
+ "description": "GLM-4-Plus 作为高智能旗舰,具备强大的处理长文本和复杂任务的能力,性能全面提升。"
796
808
  },
797
- "abab6.5t-chat": {
798
- "description": "针对中文人设对话场景优化,提供流畅且符合中文表达习惯的对话生成能力。"
809
+ "glm-4v": {
810
+ "description": "GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。"
799
811
  },
800
- "abab5.5-chat": {
801
- "description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。"
812
+ "glm-4v-flash": {
813
+ "description": "GLM-4V-Flash 专注于高效的单一图像理解,适用于快速图像解析的场景,例如实时图像分析或批量图像处理。"
802
814
  },
803
- "abab5.5s-chat": {
804
- "description": "专为中文人设对话场景设计,提供高质量的中文对话生成能力,适用于多种应用场景。"
815
+ "glm-4v-plus": {
816
+ "description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。"
805
817
  },
806
- "Skylark2-pro-character-4k": {
807
- "description": "云雀(Skylark)第二代模型,Skylark2-pro-character模型具有优秀的角色扮演和聊天能力,擅长根据用户prompt要求扮演不同角色与用户展开聊天,角色风格突出,对话内容自然流畅,适用于构建聊天机器人、虚拟助手和在线客服等场景,有较高的响应速度。"
818
+ "glm-zero-preview": {
819
+ "description": "GLM-Zero-Preview具备强大的复杂推理能力,在逻辑推理、数学、编程等领域表现优异。"
808
820
  },
809
- "Skylark2-pro-32k": {
810
- "description": "云雀(Skylark)第二代模型,Skylark2-pro版本有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为32k。"
821
+ "google/gemini-2.0-flash-001": {
822
+ "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
811
823
  },
812
- "Skylark2-pro-4k": {
813
- "description": "云雀(Skylark)第二代模型,Skylark2-pro模型有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为4k。"
824
+ "google/gemini-2.0-pro-exp-02-05:free": {
825
+ "description": "Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。"
814
826
  },
815
- "Skylark2-pro-turbo-8k": {
816
- "description": "云雀(Skylark)第二代模型,Skylark2-pro-turbo-8k推理更快,成本更低,上下文窗口长度为8k。"
827
+ "google/gemini-flash-1.5": {
828
+ "description": "Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
817
829
  },
818
- "Skylark2-lite-8k": {
819
- "description": "云雀(Skylark)第二代模型,Skylark2-lite模型有较高的响应速度,适用于实时性要求高、成本敏感、对模型精度要求不高的场景,上下文窗口长度为8k。"
830
+ "google/gemini-pro-1.5": {
831
+ "description": "Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。"
820
832
  },
821
- "mistralai/Mistral-7B-Instruct-v0.3": {
822
- "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。"
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
835
+ },
836
+ "google/gemma-2-27b-it": {
837
+ "description": "Gemma 2 27B 是一款通用大语言模型,具有优异的性能和广泛的应用场景。"
823
838
  },
824
839
  "google/gemma-2-2b-it": {
825
- "description": "Google的轻量级指令调优模型"
840
+ "description": "面向边缘应用的高级小型语言生成 AI 模型。"
826
841
  },
827
- "Qwen/Qwen2.5-72B-Instruct": {
828
- "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
829
844
  },
830
- "Qwen/Qwen2.5-Coder-32B-Instruct": {
831
- "description": "Qwen2.5 Coder 32B Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
845
+ "google/gemma-2-9b-it": {
846
+ "description": "Gemma 2 9B 由Google开发,提供高效的指令响应和综合能力。"
832
847
  },
833
- "Qwen/QwQ-32B-Preview": {
834
- "description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
848
+ "google/gemma-2-9b-it:free": {
849
+ "description": "Gemma 2 是Google轻量化的开源文本模型系列。"
835
850
  },
836
- "hunyuan-turbo-latest": {
837
- "description": "通用体验优化,包括NLP理解、文本创作、闲聊、知识问答、翻译、领域等;提升拟人性,优化模型情商;提升意图模糊时模型主动澄清能力;提升字词解析类问题的处理能力;提升创作的质量和可互动性;提升多轮体验。"
851
+ "google/gemma-2b-it": {
852
+ "description": "Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。"
838
853
  },
839
- "hunyuan-turbo-20241223": {
840
- "description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
854
+ "gpt-3.5-turbo": {
855
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
841
856
  },
842
- "hunyuan-turbo-20241120": {
843
- "description": "hunyuan-turbo 2024 11 20 日固定版本,介于 hunyuan-turbo 和 hunyuan-turbo-latest 之间的一个版本。"
857
+ "gpt-3.5-turbo-0125": {
858
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
844
859
  },
845
- "hunyuan-large": {
846
- "description": "Hunyuan-large 模型总参数量约 389B,激活参数量约 52B,是当前业界参数规模最大、效果最好的 Transformer 架构的开源 MoE 模型。"
860
+ "gpt-3.5-turbo-1106": {
861
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
847
862
  },
848
- "hunyuan-large-longcontext": {
849
- "description": "擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。"
863
+ "gpt-3.5-turbo-16k": {
864
+ "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,适合复杂任务。"
850
865
  },
851
- "hunyuan-lite-vision": {
852
- "description": "混元最新7B多模态模型,上下文窗口32K,支持中英文场景的多模态对话、图像物体识别、文档表格理解、多模态数学等,在多个维度上评测指标优于7B竞品模型。"
866
+ "gpt-3.5-turbo-instruct": {
867
+ "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
853
868
  },
854
- "hunyuan-standard-vision": {
855
- "description": "混元最新多模态模型,支持多语种作答,中英文能力均衡。"
869
+ "gpt-35-turbo": {
870
+ "description": "GPT 3.5 Turbo,OpenAI提供的高效模型,适用于聊天和文本生成任务,支持并行函数调用。"
856
871
  },
857
- "hunyuan-turbo-vision": {
858
- "description": "混元新一代视觉语言旗舰大模型,采用全新的混合专家模型(MoE)结构,在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升。"
872
+ "gpt-35-turbo-16k": {
873
+ "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,适合复杂任务。"
859
874
  },
860
- "internlm3-latest": {
861
- "description": "我们最新的模型系列,有着卓越的推理性能,领跑同量级开源模型。默认指向我们最新发布的 InternLM3 系列模型"
875
+ "gpt-4": {
876
+ "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
862
877
  },
863
- "internlm2.5-latest": {
864
- "description": "我们仍在维护的老版本模型,经过多轮迭代有着极其优异且稳定的性能,包含 7B、20B 多种模型参数量可选,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。默认指向我们最新发布的 InternLM2.5 系列模型"
878
+ "gpt-4-0125-preview": {
879
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
865
880
  },
866
- "internlm2-pro-chat": {
867
- "description": "InternLM2 版本最大的模型,专注于高度复杂的任务"
881
+ "gpt-4-0613": {
882
+ "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
868
883
  },
869
- "llama3.1": {
870
- "description": "Llama 3.1 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
884
+ "gpt-4-1106-preview": {
885
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
871
886
  },
872
- "MiniMax-Text-01": {
873
- "description": "在 MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
887
+ "gpt-4-32k": {
888
+ "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
874
889
  },
875
- "abab7-chat-preview": {
876
- "description": "相对于abab6.5系列模型在长文、数学、写作等能力有大幅度提升。"
890
+ "gpt-4-32k-0613": {
891
+ "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
877
892
  },
878
- "pixtral-large-latest": {
879
- "description": "Pixtral Large 是一款拥有 1240 亿参数的开源多模态模型,基于 Mistral Large 2 构建。这是我们多模态家族中的第二款模型,展现了前沿水平的图像理解能力。"
893
+ "gpt-4-turbo": {
894
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
880
895
  },
881
- "moonshot-v1-8k-vision-preview": {
882
- "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
896
+ "gpt-4-turbo-2024-04-09": {
897
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
883
898
  },
884
- "moonshot-v1-32k-vision-preview": {
885
- "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
899
+ "gpt-4-turbo-preview": {
900
+ "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
886
901
  },
887
- "moonshot-v1-128k-vision-preview": {
888
- "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
902
+ "gpt-4-vision-preview": {
903
+ "description": "GPT-4 视觉预览版,专为图像分析和处理任务设计。"
889
904
  },
890
- "meta-llama/llama-3.1-8b-instruct": {
891
- "description": "Llama 3.1 8B Instruct 是 Meta 推出的最新版本,优化了高质量对话场景,表现优于许多领先的闭源模型。"
905
+ "gpt-4o": {
906
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
892
907
  },
893
- "meta-llama/llama-3.1-70b-instruct": {
894
- "description": "Llama 3.1 70B Instruct 专为高质量对话而设计,在人类评估中表现突出,特别适合高交互场景。"
908
+ "gpt-4o-2024-05-13": {
909
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
895
910
  },
896
- "meta-llama/llama-3.1-405b-instruct": {
897
- "description": "Llama 3.1 405B Instruct 是 Meta最新推出的版本,优化用于生成高质量对话,超越了许多领导闭源模型。"
911
+ "gpt-4o-2024-08-06": {
912
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
898
913
  },
899
- "meta-llama/llama-3-8b-instruct": {
900
- "description": "Llama 3 8B Instruct 优化了高质量对话场景,性能优于许多闭源模型。"
914
+ "gpt-4o-2024-11-20": {
915
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
901
916
  },
902
- "meta-llama/llama-3-70b-instruct": {
903
- "description": "Llama 3 70B Instruct 优化用于高质量对话场景,在各类人类评估中表现优异。"
917
+ "gpt-4o-audio-preview": {
918
+ "description": "GPT-4o Audio 模型,支持音频输入输出"
904
919
  },
905
- "google/gemma-2-9b-it": {
906
- "description": "Gemma 2 9B 由Google开发,提供高效的指令响应和综合能力。"
920
+ "gpt-4o-mini": {
921
+ "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。"
907
922
  },
908
- "mistralai/mistral-nemo": {
909
- "description": "Mistral Nemo 是多语言支持和高性能编程的7.3B参数模型。"
923
+ "gpt-4o-mini-realtime-preview": {
924
+ "description": "GPT-4o-mini 实时版本,支持音频和文本实时输入输出"
910
925
  },
911
- "mistralai/mistral-7b-instruct": {
912
- "description": "Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。"
926
+ "gpt-4o-realtime-preview": {
927
+ "description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
913
928
  },
914
- "microsoft/wizardlm 2-7b": {
915
- "description": "WizardLM 2 7B 是微软AI最新的快速轻量化模型,性能接近于现有开源领导模型的10倍。"
929
+ "gpt-4o-realtime-preview-2024-10-01": {
930
+ "description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
916
931
  },
917
- "microsoft/wizardlm-2-8x22b": {
918
- "description": "WizardLM-2 8x22B 是微软AI最先进的Wizard模型,显示出极其竞争力的表现。"
932
+ "gpt-4o-realtime-preview-2024-12-17": {
933
+ "description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
919
934
  },
920
- "cognitivecomputations/dolphin-mixtral-8x22b": {
921
- "description": "Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。"
935
+ "grok-2-1212": {
936
+ "description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
922
937
  },
923
- "nousresearch/hermes-2-pro-llama-3-8b": {
924
- "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。"
938
+ "grok-2-vision-1212": {
939
+ "description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
925
940
  },
926
- "Nous-Hermes-2-Mixtral-8x7B-DPO": {
927
- "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。"
941
+ "grok-beta": {
942
+ "description": "拥有与 Grok 2 相当的性能,但具有更高的效率、速度和功能。"
943
+ },
944
+ "grok-vision-beta": {
945
+ "description": "最新的图像理解模型,可以处理各种各样的视觉信息,包括文档、图表、截图和照片等。"
928
946
  },
929
947
  "gryphe/mythomax-l2-13b": {
930
948
  "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。"
931
949
  },
932
- "openchat/openchat-7b": {
933
- "description": "OpenChat 7B 是经过“C-RLFT(条件强化学习微调)”策略精调的开源语言模型库。"
950
+ "hunyuan-code": {
951
+ "description": "混元最新代码生成模型,经过 200B 高质量代码数据增训基座模型,迭代半年高质量 SFT 数据训练,上下文长窗口长度增大到 8K,五大语言代码生成自动评测指标上位居前列;五大语言10项考量各方面综合代码任务人工高质量评测上,性能处于第一梯队"
934
952
  },
935
- "deepseek-r1": {
936
- "description": "DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
953
+ "hunyuan-functioncall": {
954
+ "description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。"
937
955
  },
938
- "llama3.1:70b": {
939
- "description": "Llama 3.1 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
956
+ "hunyuan-large": {
957
+ "description": "Hunyuan-large 模型总参数量约 389B,激活参数量约 52B,是当前业界参数规模最大、效果最好的 Transformer 架构的开源 MoE 模型。"
940
958
  },
941
- "llama3.1:405b": {
942
- "description": "Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
959
+ "hunyuan-large-longcontext": {
960
+ "description": "擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。"
943
961
  },
944
- "codellama": {
945
- "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
962
+ "hunyuan-lite": {
963
+ "description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。"
946
964
  },
947
- "codellama:13b": {
948
- "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
965
+ "hunyuan-lite-vision": {
966
+ "description": "混元最新7B多模态模型,上下文窗口32K,支持中英文场景的多模态对话、图像物体识别、文档表格理解、多模态数学等,在多个维度上评测指标优于7B竞品模型。"
949
967
  },
950
- "codellama:34b": {
951
- "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
968
+ "hunyuan-pro": {
969
+ "description": "万亿级参数规模 MOE-32K 长文模型。在各种 benchmark 上达到绝对领先的水平,复杂指令和推理,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。"
952
970
  },
953
- "codellama:70b": {
954
- "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
971
+ "hunyuan-role": {
972
+ "description": "混元最新版角色扮演模型,混元官方精调训练推出的角色扮演模型,基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。"
955
973
  },
956
- "qwq": {
957
- "description": "QwQ 是一个实验研究模型,专注于提高 AI 推理能力。"
974
+ "hunyuan-standard": {
975
+ "description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-32K 性价比相对更高,在平衡效果、价格的同时,可对实现对长文本输入的处理。"
958
976
  },
959
- "qwen2.5:0.5b": {
960
- "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
977
+ "hunyuan-standard-256K": {
978
+ "description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-256K 在长度和效果上进一步突破,极大的扩展了可输入长度。"
961
979
  },
962
- "qwen2.5:1.5b": {
963
- "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
980
+ "hunyuan-standard-vision": {
981
+ "description": "混元最新多模态模型,支持多语种作答,中英文能力均衡。"
964
982
  },
965
- "qwen2.5": {
966
- "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
983
+ "hunyuan-turbo": {
984
+ "description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
967
985
  },
968
- "qwen2.5:72b": {
969
- "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
986
+ "hunyuan-turbo-20241120": {
987
+ "description": "hunyuan-turbo 2024 年 11 月 20 日固定版本,介于 hunyuan-turbo 和 hunyuan-turbo-latest 之间的一个版本。"
970
988
  },
971
- "codeqwen": {
972
- "description": "CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。"
989
+ "hunyuan-turbo-20241223": {
990
+ "description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
973
991
  },
974
- "qwen2:0.5b": {
975
- "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
992
+ "hunyuan-turbo-latest": {
993
+ "description": "通用体验优化,包括NLP理解、文本创作、闲聊、知识问答、翻译、领域等;提升拟人性,优化模型情商;提升意图模糊时模型主动澄清能力;提升字词解析类问题的处理能力;提升创作的质量和可互动性;提升多轮体验。"
976
994
  },
977
- "qwen2:1.5b": {
978
- "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
995
+ "hunyuan-turbo-vision": {
996
+ "description": "混元新一代视觉语言旗舰大模型,采用全新的混合专家模型(MoE)结构,在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升。"
979
997
  },
980
- "qwen2": {
981
- "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
998
+ "hunyuan-vision": {
999
+ "description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
982
1000
  },
983
- "qwen2:72b": {
984
- "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1001
+ "internlm/internlm2_5-20b-chat": {
1002
+ "description": "InternLM2.5-20B-Chat 是一个开源的大规模对话模型,基于 InternLM2 架构开发。该模型拥有 200 亿参数,在数学推理方面表现出色,超越了同量级的 Llama3 和 Gemma2-27B 模型。InternLM2.5-20B-Chat 在工具调用能力方面有显著提升,支持从上百个网页收集信息进行分析推理,并具备更强的指令理解、工具选择和结果反思能力。它适用于构建复杂智能体,可进行多轮工具调用以完成复杂任务"
985
1003
  },
986
- "gemma2:2b": {
987
- "description": "Gemma 2 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
1004
+ "internlm/internlm2_5-7b-chat": {
1005
+ "description": "InternLM2.5-7B-Chat 是一个开源的对话模型,基于 InternLM2 架构开发。该 7B 参数规模的模型专注于对话生成任务,支持中英双语交互。模型采用了最新的训练技术,旨在提供流畅、智能的对话体验。InternLM2.5-7B-Chat 适用于各种对话应用场景,包括但不限于智能客服、个人助手等领域"
988
1006
  },
989
- "gemma2": {
990
- "description": "Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
1007
+ "internlm2-pro-chat": {
1008
+ "description": "InternLM2 版本最大的模型,专注于高度复杂的任务"
991
1009
  },
992
- "gemma2:27b": {
993
- "description": "Gemma 2 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。"
1010
+ "internlm2.5-latest": {
1011
+ "description": "我们仍在维护的老版本模型,经过多轮迭代有着极其优异且稳定的性能,包含 7B、20B 多种模型参数量可选,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。默认指向我们最新发布的 InternLM2.5 系列模型"
994
1012
  },
995
- "codegemma:2b": {
996
- "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
1013
+ "internlm3-latest": {
1014
+ "description": "我们最新的模型系列,有着卓越的推理性能,领跑同量级开源模型。默认指向我们最新发布的 InternLM3 系列模型"
997
1015
  },
998
- "codegemma": {
999
- "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "深度搜索结合了网络搜索、阅读和推理,可进行全面调查。您可以将其视为一个代理,接受您的研究任务 - 它会进行广泛搜索并经过多次迭代,然后才能给出答案。这个过程涉及持续的研究、推理和从各个角度解决问题。这与直接从预训练数据生成答案的标准大模型以及依赖一次性表面搜索的传统 RAG 系统有着根本的不同。"
1000
1018
  },
1001
- "phi3": {
1002
- "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。"
1019
+ "learnlm-1.5-pro-experimental": {
1020
+ "description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。"
1003
1021
  },
1004
- "phi3:14b": {
1005
- "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。"
1022
+ "lite": {
1023
+ "description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
1006
1024
  },
1007
- "wizardlm2": {
1008
- "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1025
+ "llama-3.1-70b-versatile": {
1026
+ "description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。"
1009
1027
  },
1010
- "wizardlm2:8x22b": {
1011
- "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1028
+ "llama-3.1-8b-instant": {
1029
+ "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。"
1030
+ },
1031
+ "llama-3.1-sonar-huge-128k-online": {
1032
+ "description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。"
1033
+ },
1034
+ "llama-3.1-sonar-large-128k-online": {
1035
+ "description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。"
1012
1036
  },
1013
- "mathstral": {
1014
- "description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。"
1037
+ "llama-3.1-sonar-small-128k-online": {
1038
+ "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
1015
1039
  },
1016
- "mistral": {
1017
- "description": "Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。"
1040
+ "llama-3.2-11b-vision-instruct": {
1041
+ "description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
1018
1042
  },
1019
- "mixtral": {
1020
- "description": "Mixtral Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。"
1043
+ "llama-3.2-11b-vision-preview": {
1044
+ "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1021
1045
  },
1022
- "mixtral:8x22b": {
1023
- "description": "Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。"
1046
+ "llama-3.2-90b-vision-instruct": {
1047
+ "description": "适用于视觉理解代理应用的高级图像推理能力。"
1024
1048
  },
1025
- "codestral": {
1026
- "description": "Codestral Mistral AI 的首款代码模型,为代码生成任务提供优异支持。"
1049
+ "llama-3.2-90b-vision-preview": {
1050
+ "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1027
1051
  },
1028
- "aya": {
1029
- "description": "Aya 23Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
1052
+ "llama-3.3-70b-instruct": {
1053
+ "description": "Llama 3.3Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1030
1054
  },
1031
- "aya:35b": {
1032
- "description": "Aya 23Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
1055
+ "llama-3.3-70b-versatile": {
1056
+ "description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
1033
1057
  },
1034
- "command-r": {
1035
- "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
1058
+ "llama3-70b-8192": {
1059
+ "description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。"
1036
1060
  },
1037
- "command-r-plus": {
1038
- "description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。"
1061
+ "llama3-8b-8192": {
1062
+ "description": "Meta Llama 3 8B 带来优质的推理效能,适合多场景应用需求。"
1039
1063
  },
1040
- "deepseek-v2": {
1041
- "description": "DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。"
1064
+ "llama3-groq-70b-8192-tool-use-preview": {
1065
+ "description": "Llama 3 Groq 70B Tool Use 提供强大的工具调用能力,支持复杂任务的高效处理。"
1042
1066
  },
1043
- "deepseek-v2:236b": {
1044
- "description": "DeepSeek V2 236B DeepSeek 的设计代码模型,提供强大的代码生成能力。"
1067
+ "llama3-groq-8b-8192-tool-use-preview": {
1068
+ "description": "Llama 3 Groq 8B Tool Use 是针对高效工具使用优化的模型,支持快速并行计算。"
1045
1069
  },
1046
- "deepseek-coder-v2": {
1047
- "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
1070
+ "llama3.1": {
1071
+ "description": "Llama 3.1 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
1048
1072
  },
1049
- "deepseek-coder-v2:236b": {
1050
- "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
1073
+ "llama3.1:405b": {
1074
+ "description": "Llama 3.1 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
1075
+ },
1076
+ "llama3.1:70b": {
1077
+ "description": "Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
1051
1078
  },
1052
1079
  "llava": {
1053
1080
  "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。"
1054
1081
  },
1082
+ "llava-v1.5-7b-4096-preview": {
1083
+ "description": "LLaVA 1.5 7B 提供视觉处理能力融合,通过视觉信息输入生成复杂输出。"
1084
+ },
1055
1085
  "llava:13b": {
1056
1086
  "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。"
1057
1087
  },
1058
1088
  "llava:34b": {
1059
1089
  "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。"
1060
1090
  },
1061
- "minicpm-v": {
1062
- "description": "MiniCPM-V 是 OpenBMB 推出的新一代多模态大模型,具备卓越的 OCR 识别和多模态理解能力,支持广泛的应用场景。"
1091
+ "mathstral": {
1092
+ "description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。"
1063
1093
  },
1064
- "gpt-4o-2024-11-20": {
1065
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
1094
+ "max-32k": {
1095
+ "description": "Spark Max 32K 配置了大上下文处理能力,更强的上下文理解和逻辑推理能力,支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景"
1066
1096
  },
1067
- "gpt-4o-audio-preview": {
1068
- "description": "GPT-4o Audio 模型,支持音频输入输出"
1097
+ "meta-llama-3-70b-instruct": {
1098
+ "description": "一个强大的700亿参数模型,在推理、编码和广泛的语言应用方面表现出色。"
1069
1099
  },
1070
- "text-embedding-3-large": {
1071
- "description": "最强大的向量化模型,适用于英文和非英文任务"
1100
+ "meta-llama-3-8b-instruct": {
1101
+ "description": "一个多功能的80亿参数模型,针对对话和文本生成任务进行了优化。"
1072
1102
  },
1073
- "text-embedding-3-small": {
1074
- "description": "高效且经济的新一代 Embedding 模型,适用于知识检索、RAG 应用等场景"
1103
+ "meta-llama-3.1-405b-instruct": {
1104
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
1075
1105
  },
1076
- "tts-1": {
1077
- "description": "最新的文本转语音模型,针对实时场景优化速度"
1106
+ "meta-llama-3.1-70b-instruct": {
1107
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
1078
1108
  },
1079
- "tts-1-hd": {
1080
- "description": "最新的文本转语音模型,针对质量进行优化"
1109
+ "meta-llama-3.1-8b-instruct": {
1110
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
1081
1111
  },
1082
- "whisper-1": {
1083
- "description": "通用语音识别模型,支持多语言语音识别、语音翻译和语言识别"
1112
+ "meta-llama/Llama-2-13b-chat-hf": {
1113
+ "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。"
1084
1114
  },
1085
- "dall-e-3": {
1086
- "description": "最新的 DALL·E 模型,于2023年11月发布。支持更真实、准确的图像生成,具有更强的细节表现力"
1115
+ "meta-llama/Llama-2-70b-hf": {
1116
+ "description": "LLaMA-2 提供优秀的语言处理能力和出色的交互体验。"
1087
1117
  },
1088
- "dall-e-2": {
1089
- "description": "第二代 DALL·E 模型,支持更真实、准确的图像生成,分辨率是第一代的4倍"
1118
+ "meta-llama/Llama-3-70b-chat-hf": {
1119
+ "description": "Llama 3 70B Instruct Reference 是功能强大的聊天模型,支持复杂的对话需求。"
1090
1120
  },
1091
- "gpt-4o-realtime-preview": {
1092
- "description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
1121
+ "meta-llama/Llama-3-8b-chat-hf": {
1122
+ "description": "Llama 3 8B Instruct Reference 提供多语言支持,涵盖丰富的领域知识。"
1093
1123
  },
1094
- "gpt-4o-realtime-preview-2024-10-01": {
1095
- "description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
1124
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
1125
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1096
1126
  },
1097
- "gpt-4o-realtime-preview-2024-12-17": {
1098
- "description": "GPT-4o 实时版本,支持音频和文本实时输入输出"
1127
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
1128
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1099
1129
  },
1100
- "gpt-4o-mini-realtime-preview": {
1101
- "description": "GPT-4o-mini 实时版本,支持音频和文本实时输入输出"
1130
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
1131
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1102
1132
  },
1103
- "openrouter/auto": {
1104
- "description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。"
1133
+ "meta-llama/Llama-3.3-70B-Instruct": {
1134
+ "description": "Llama 3.3 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1105
1135
  },
1106
- "openai/o1-mini": {
1107
- "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
1136
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1137
+ "description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 是 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
1108
1138
  },
1109
- "openai/o1-preview": {
1110
- "description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
1139
+ "meta-llama/Llama-Vision-Free": {
1140
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1111
1141
  },
1112
- "openai/gpt-4o-mini": {
1113
- "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。"
1142
+ "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
1143
+ "description": "Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。"
1114
1144
  },
1115
- "openai/gpt-4o": {
1116
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
1145
+ "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
1146
+ "description": "Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。"
1117
1147
  },
1118
- "anthropic/claude-3-haiku": {
1119
- "description": "Claude 3 Haiku Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。"
1148
+ "meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
1149
+ "description": "Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。"
1120
1150
  },
1121
- "anthropic/claude-3.5-haiku": {
1122
- "description": "Claude 3.5 Haiku Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比,Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。"
1151
+ "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
1152
+ "description": "Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。"
1123
1153
  },
1124
- "anthropic/claude-3.5-sonnet": {
1125
- "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
1154
+ "meta-llama/Meta-Llama-3.1-405B-Instruct": {
1155
+ "description": "Llama 3.1 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
1126
1156
  },
1127
- "anthropic/claude-3-opus": {
1128
- "description": "Claude 3 Opus Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
1157
+ "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1158
+ "description": "405B Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。"
1129
1159
  },
1130
- "google/gemini-flash-1.5": {
1131
- "description": "Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。"
1132
1162
  },
1133
- "google/gemini-2.0-flash-001": {
1134
- "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
1163
+ "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1164
+ "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 70B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
1135
1165
  },
1136
- "google/gemini-pro-1.5": {
1137
- "description": "Gemini 1.5 Pro 结合最新优化技术,带来更高效的多模态数据处理能力。"
1166
+ "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
1167
+ "description": "Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。"
1138
1168
  },
1139
- "deepseek/deepseek-chat": {
1140
- "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
1169
+ "meta-llama/Meta-Llama-3.1-8B-Instruct": {
1170
+ "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 8B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
1141
1171
  },
1142
- "meta-llama/llama-3.2-11b-vision-instruct": {
1143
- "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1172
+ "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
1173
+ "description": "Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。"
1144
1174
  },
1145
- "meta-llama/llama-3.2-90b-vision-instruct": {
1146
- "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1175
+ "meta-llama/llama-3-70b-instruct": {
1176
+ "description": "Llama 3 70B Instruct 优化用于高质量对话场景,在各类人类评估中表现优异。"
1147
1177
  },
1148
- "meta-llama/llama-3.3-70b-instruct": {
1149
- "description": "Llama 3.3 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1178
+ "meta-llama/llama-3-8b-instruct": {
1179
+ "description": "Llama 3 8B Instruct 优化了高质量对话场景,性能优于许多闭源模型。"
1150
1180
  },
1151
- "meta-llama/llama-3.3-70b-instruct:free": {
1152
- "description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1181
+ "meta-llama/llama-3.1-405b-instruct": {
1182
+ "description": "Llama 3.1 405B Instruct Meta最新推出的版本,优化用于生成高质量对话,超越了许多领导闭源模型。"
1153
1183
  },
1154
- "qwen/qwen-2-7b-instruct:free": {
1155
- "description": "Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。"
1184
+ "meta-llama/llama-3.1-70b-instruct": {
1185
+ "description": "Llama 3.1 70B Instruct 专为高质量对话而设计,在人类评估中表现突出,特别适合高交互场景。"
1186
+ },
1187
+ "meta-llama/llama-3.1-8b-instruct": {
1188
+ "description": "Llama 3.1 8B Instruct 是 Meta 推出的最新版本,优化了高质量对话场景,表现优于许多领先的闭源模型。"
1156
1189
  },
1157
1190
  "meta-llama/llama-3.1-8b-instruct:free": {
1158
1191
  "description": "LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。"
1159
1192
  },
1160
- "google/gemma-2-9b-it:free": {
1161
- "description": "Gemma 2 是Google轻量化的开源文本模型系列。"
1162
- },
1163
- "google/gemini-2.0-pro-exp-02-05:free": {
1164
- "description": "Gemini 2.0 Pro Experimental 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升,特别是对于世界知识、代码和长上下文。"
1165
- },
1166
- "sonar-reasoning": {
1167
- "description": "由 DeepSeek 推理模型提供支持的新 API 产品。"
1168
- },
1169
- "sonar-pro": {
1170
- "description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
1171
- },
1172
- "sonar": {
1173
- "description": "基于搜索上下文的轻量级搜索产品,比 Sonar Pro 更快、更便宜。"
1174
- },
1175
- "llama-3.1-sonar-small-128k-online": {
1176
- "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
1193
+ "meta-llama/llama-3.2-11b-vision-instruct": {
1194
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1177
1195
  },
1178
- "llama-3.1-sonar-large-128k-online": {
1179
- "description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。"
1196
+ "meta-llama/llama-3.2-90b-vision-instruct": {
1197
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1180
1198
  },
1181
- "llama-3.1-sonar-huge-128k-online": {
1182
- "description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。"
1199
+ "meta-llama/llama-3.3-70b-instruct": {
1200
+ "description": "Llama 3.3 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1183
1201
  },
1184
- "qwen-turbo-latest": {
1185
- "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
1202
+ "meta-llama/llama-3.3-70b-instruct:free": {
1203
+ "description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1186
1204
  },
1187
- "qwen-plus-latest": {
1188
- "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
1205
+ "meta.llama3-1-405b-instruct-v1:0": {
1206
+ "description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最强大的模型,是一款高度先进的对话推理和合成数据生成模型,也可以用作在特定领域进行专业持续预训练或微调的基础。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。"
1189
1207
  },
1190
- "qwen-max-latest": {
1191
- "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
1208
+ "meta.llama3-1-70b-instruct-v1:0": {
1209
+ "description": "Meta Llama 3.1 70B Instruct 的更新版,包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。"
1192
1210
  },
1193
- "qwen-vl-ocr-latest": {
1194
- "description": "通义千问OCR是文字提取专有模型,专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种文字,目前支持的语言有:汉语、英语、法语、日语、韩语、德语、俄语、意大利语、越南语、阿拉伯语。"
1211
+ "meta.llama3-1-8b-instruct-v1:0": {
1212
+ "description": "Meta Llama 3.1 8B Instruct 的更新版,包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。"
1195
1213
  },
1196
- "qwen-coder-plus-latest": {
1197
- "description": "通义千问代码模型。"
1214
+ "meta.llama3-70b-instruct-v1:0": {
1215
+ "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合内容创建、对话 AI、语言理解、研发和企业应用。"
1198
1216
  },
1199
- "qwq-32b-preview": {
1200
- "description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
1217
+ "meta.llama3-8b-instruct-v1:0": {
1218
+ "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合计算能力和资源有限、边缘设备和更快的训练时间。"
1201
1219
  },
1202
- "qvq-72b-preview": {
1203
- "description": "QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。"
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "高级 LLM,支持合成数据生成、知识蒸馏和推理,适用于聊天机器人、编程和特定领域任务。"
1204
1222
  },
1205
- "qwen2.5-14b-instruct-1m": {
1206
- "description": "通义千问2.5对外开源的72B规模的模型。"
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "赋能复杂对话,具备卓越的上下文理解、推理能力和文本生成能力。"
1207
1225
  },
1208
- "qwen2.5-coder-32b-instruct": {
1209
- "description": "通义千问代码模型开源版。"
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "先进的最尖端模型,具备语言理解、卓越的推理能力和文本生成能力。"
1210
1228
  },
1211
- "qwen2.5-vl-72b-instruct": {
1212
- "description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "尖端的视觉-语言模型,擅长从图像中进行高质量推理。"
1213
1231
  },
1214
- "qwen2.5-vl-7b-instruct": {
1215
- "description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
1216
1234
  },
1217
- "deepseek-v3": {
1218
- "description": "DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。"
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
1219
1237
  },
1220
- "deepseek-r1-distill-qwen-1.5b": {
1221
- "description": "DeepSeek-R1-Distill 系列模型通过知识蒸馏技术,将 DeepSeek-R1 生成的样本对 Qwen、Llama 等开源模型进行微调后得到。"
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "尖端的视觉-语言模型,擅长从图像中进行高质量推理。"
1222
1240
  },
1223
- "deepseek-r1-distill-qwen-7b": {
1224
- "description": "DeepSeek-R1-Distill 系列模型通过知识蒸馏技术,将 DeepSeek-R1 生成的样本对 Qwen、Llama 等开源模型进行微调后得到。"
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "先进的 LLM,擅长推理、数学、常识和函数调用。"
1225
1243
  },
1226
- "deepseek-r1-distill-llama-8b": {
1227
- "description": "DeepSeek-R1-Distill 系列模型通过知识蒸馏技术,将 DeepSeek-R1 生成的样本对 Qwen、Llama 等开源模型进行微调后得到。"
1244
+ "microsoft/WizardLM-2-8x22B": {
1245
+ "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1228
1246
  },
1229
- "deepseek-r1-distill-qwen-14b": {
1230
- "description": "DeepSeek-R1-Distill 系列模型通过知识蒸馏技术,将 DeepSeek-R1 生成的样本对 Qwen、Llama 等开源模型进行微调后得到。"
1247
+ "microsoft/wizardlm 2-7b": {
1248
+ "description": "WizardLM 2 7B 是微软AI最新的快速轻量化模型,性能接近于现有开源领导模型的10倍。"
1231
1249
  },
1232
- "deepseek-r1-distill-qwen-32b": {
1233
- "description": "DeepSeek-R1-Distill 系列模型通过知识蒸馏技术,将 DeepSeek-R1 生成的样本对 Qwen、Llama 等开源模型进行微调后得到。"
1250
+ "microsoft/wizardlm-2-8x22b": {
1251
+ "description": "WizardLM-2 8x22B 是微软AI最先进的Wizard模型,显示出极其竞争力的表现。"
1234
1252
  },
1235
- "SenseChat-5": {
1236
- "description": "最新版本模型 (V5.5),128K上下文长度,在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升,比肩GPT-4o"
1253
+ "minicpm-v": {
1254
+ "description": "MiniCPM-V 是 OpenBMB 推出的新一代多模态大模型,具备卓越的 OCR 识别和多模态理解能力,支持广泛的应用场景。"
1237
1255
  },
1238
- "SenseChat-Turbo": {
1239
- "description": "适用于快速问答、模型微调场景"
1256
+ "ministral-3b-latest": {
1257
+ "description": "Ministral 3B 是Mistral的世界顶级边缘模型。"
1240
1258
  },
1241
- "SenseChat-5-Cantonese": {
1242
- "description": "32K上下文长度,在粤语的对话理解上超越了GPT-4,在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美"
1259
+ "ministral-8b-latest": {
1260
+ "description": "Ministral 8B 是Mistral的性价比极高的边缘模型。"
1243
1261
  },
1244
- "SenseChat-128K": {
1245
- "description": "基础版本模型 (V4),128K上下文长度,在长文本理解及生成等任务中表现出色"
1262
+ "mistral": {
1263
+ "description": "Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。"
1246
1264
  },
1247
- "SenseChat-32K": {
1248
- "description": "基础版本模型 (V4),32K上下文长度,灵活应用于各类场景"
1265
+ "mistral-large": {
1266
+ "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。"
1249
1267
  },
1250
- "SenseChat": {
1251
- "description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
1268
+ "mistral-large-latest": {
1269
+ "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。"
1252
1270
  },
1253
- "SenseChat-Character": {
1254
- "description": "标准版模型,8K上下文长度,高响应速度"
1271
+ "mistral-nemo": {
1272
+ "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
1255
1273
  },
1256
- "SenseChat-Character-Pro": {
1257
- "description": "高级版模型,32K上下文长度,能力全面提升,支持中/英文对话"
1274
+ "mistral-small": {
1275
+ "description": "Mistral Small可用于任何需要高效率和低延迟的基于语言的任务。"
1258
1276
  },
1259
- "deepseek-ai/DeepSeek-R1": {
1260
- "description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
1277
+ "mistral-small-latest": {
1278
+ "description": "Mistral Small是成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。"
1261
1279
  },
1262
- "deepseek-ai/DeepSeek-V3": {
1263
- "description": "最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。"
1280
+ "mistralai/Mistral-7B-Instruct-v0.1": {
1281
+ "description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。"
1264
1282
  },
1265
- "Pro/deepseek-ai/DeepSeek-R1": {
1266
- "description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
1283
+ "mistralai/Mistral-7B-Instruct-v0.2": {
1284
+ "description": "Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。"
1267
1285
  },
1268
- "Pro/deepseek-ai/DeepSeek-V3": {
1269
- "description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
1286
+ "mistralai/Mistral-7B-Instruct-v0.3": {
1287
+ "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。"
1270
1288
  },
1271
- "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
1272
- "description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
1289
+ "mistralai/Mistral-7B-v0.1": {
1290
+ "description": "Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。"
1273
1291
  },
1274
- "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
1275
- "description": "DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。在 AIME 2024、MATH-500、GPQA Diamond 等多个基准测试中都取得了优异成绩,其中在 MATH-500 上达到了 94.3% 的准确率,展现出强大的数学推理能力。"
1292
+ "mistralai/Mixtral-8x22B-Instruct-v0.1": {
1293
+ "description": "Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。"
1276
1294
  },
1277
- "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
1278
- "description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
1295
+ "mistralai/Mixtral-8x7B-Instruct-v0.1": {
1296
+ "description": "Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。"
1279
1297
  },
1280
- "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
1281
- "description": "DeepSeek-R1-Distill-Llama-8B 是基于 Llama-3.1-8B 开发的蒸馏模型。该模型使用 DeepSeek-R1 生成的样本进行微调,展现出优秀的推理能力。在多个基准测试中表现不俗,其中在 MATH-500 上达到了 89.1% 的准确率,在 AIME 2024 上达到了 50.4% 的通过率,在 CodeForces 上获得了 1205 的评分,作为 8B 规模的模型展示了较强的数学和编程能力。"
1298
+ "mistralai/Mixtral-8x7B-v0.1": {
1299
+ "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。"
1282
1300
  },
1283
- "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
1284
- "description": "DeepSeek-R1-Distill-Qwen-7B 是基于 Qwen2.5-Math-7B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。在多个基准测试中表现出色,其中在 MATH-500 上达到了 92.8% 的准确率,在 AIME 2024 上达到了 55.5% 的通过率,在 CodeForces 上获得了 1189 的评分,作为 7B 规模的模型展示了较强的数学和编程能力。"
1301
+ "mistralai/mistral-7b-instruct": {
1302
+ "description": "Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。"
1285
1303
  },
1286
- "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
1287
- "description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
1304
+ "mistralai/mistral-nemo": {
1305
+ "description": "Mistral Nemo 是多语言支持和高性能编程的7.3B参数模型。"
1288
1306
  },
1289
- "deepseek-ai/DeepSeek-V2.5": {
1290
- "description": "DeepSeek-V2.5DeepSeek-V2-Chat DeepSeek-Coder-V2-Instruct 的升级版本,集成了两个先前版本的通用和编码能力。该模型在多个方面进行了优化,包括写作和指令跟随能力,更好地与人类偏好保持一致。DeepSeek-V2.5 在各种评估基准上都取得了显著的提升,如 AlpacaEval 2.0、ArenaHard、AlignBench 和 MT-Bench 等。"
1307
+ "mixtral": {
1308
+ "description": "MixtralMistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。"
1291
1309
  },
1292
- "deepseek-ai/deepseek-vl2": {
1293
- "description": "DeepSeek-VL2 是一个基于 DeepSeekMoE-27B 开发的混合专家(MoE)视觉语言模型,采用稀疏激活的 MoE 架构,在仅激活 4.5B 参数的情况下实现了卓越性能。该模型在视觉问答、光学字符识别、文档/表格/图表理解和视觉定位等多个任务中表现优异。"
1310
+ "mixtral-8x7b-32768": {
1311
+ "description": "Mixtral 8x7B 提供高容错的并行计算能力,适合复杂任务。"
1294
1312
  },
1295
- "Qwen/QVQ-72B-Preview": {
1296
- "description": "QVQ-72B-Preview 是由 Qwen 团队开发的专注于视觉推理能力的研究型模型,其在复杂场景理解和解决视觉相关的数学问题方面具有独特优势。"
1313
+ "mixtral:8x22b": {
1314
+ "description": "Mixtral Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。"
1297
1315
  },
1298
- "Qwen/Qwen2.5-7B-Instruct": {
1299
- "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1316
+ "moonshot-v1-128k": {
1317
+ "description": "Moonshot V1 128K 是一款拥有超长上下文处理能力的模型,适用于生成超长文本,满足复杂的生成任务需求,能够处理多达128,000个tokens的内容,非常适合科研、学术和大型文档生成等应用场景。"
1300
1318
  },
1301
- "LoRA/Qwen/Qwen2.5-7B-Instruct": {
1302
- "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1319
+ "moonshot-v1-128k-vision-preview": {
1320
+ "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
1303
1321
  },
1304
- "Pro/Qwen/Qwen2.5-7B-Instruct": {
1305
- "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1322
+ "moonshot-v1-32k": {
1323
+ "description": "Moonshot V1 32K 提供中等长度的上下文处理能力,能够处理32,768个tokens,特别适合生成各种长文档和复杂对话,应用于内容创作、报告生成和对话系统等领域。"
1306
1324
  },
1307
- "Qwen/Qwen2.5-14B-Instruct": {
1308
- "description": "Qwen2.5-14B-Instruct 是阿里云发布的最新大语言模型系列之一。该 14B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1325
+ "moonshot-v1-32k-vision-preview": {
1326
+ "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
1309
1327
  },
1310
- "Qwen/Qwen2.5-32B-Instruct": {
1311
- "description": "Qwen2.5-32B-Instruct 是阿里云发布的最新大语言模型系列之一。该 32B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1328
+ "moonshot-v1-8k": {
1329
+ "description": "Moonshot V1 8K 专为生成短文本任务设计,具有高效的处理性能,能够处理8,192个tokens,非常适合简短对话、速记和快速内容生成。"
1312
1330
  },
1313
- "LoRA/Qwen/Qwen2.5-72B-Instruct": {
1314
- "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1331
+ "moonshot-v1-8k-vision-preview": {
1332
+ "description": "Kimi 视觉模型(包括 moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 等)能够理解图片内容,包括图片文字、图片颜色和物体形状等内容。"
1315
1333
  },
1316
- "Vendor-A/Qwen/Qwen2.5-72B-Instruct": {
1317
- "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1334
+ "nousresearch/hermes-2-pro-llama-3-8b": {
1335
+ "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。"
1318
1336
  },
1319
- "Qwen/Qwen2.5-72B-Instruct-128K": {
1320
- "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。它支持长达 128K tokens 的输入,可以生成超过 8K tokens 的长文本。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
1337
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1338
+ "description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型语言模型,旨在提高 LLM 生成的响应对用户查询的帮助程度。该模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基准测试中表现出色,截至 2024 10 1 日,在所有三个自动对齐基准测试中排名第一。该模型使用 RLHF(特别是 REINFORCE)、Llama-3.1-Nemotron-70B-Reward HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基础上进行训练"
1321
1339
  },
1322
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
1323
- "description": "Qwen2.5-Coder-7B-Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "独特的语言模型,提供无与伦比的准确性和效率表现。"
1324
1342
  },
1325
- "Pro/Qwen/Qwen2.5-Coder-7B-Instruct": {
1326
- "description": "Qwen2.5-Coder-7B-Instruct 是阿里云发布的代码特定大语言模型系列的最新版本。该模型在 Qwen2.5 的基础上,通过 5.5 万亿个 tokens 的训练,显著提升了代码生成、推理和修复能力。它不仅增强了编码能力,还保持了数学和通用能力的优势。模型为代码智能体等实际应用提供了更全面的基础"
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct NVIDIA 定制的大型语言模型,旨在提高 LLM 生成的响应的帮助性。"
1327
1345
  },
1328
- "Qwen/Qwen2-1.5B-Instruct": {
1329
- "description": "Qwen2-1.5B-Instruct Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。与 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等测试中均显示出显著的性能提升,尽管参数量略少"
1346
+ "o1": {
1347
+ "description": "o1OpenAI新的推理模型,支持图文输入并输出文本,适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。"
1330
1348
  },
1331
- "Pro/Qwen/Qwen2-1.5B-Instruct": {
1332
- "description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。与 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等测试中均显示出显著的性能提升,尽管参数量略少"
1349
+ "o1-mini": {
1350
+ "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
1333
1351
  },
1334
- "Qwen/Qwen2-7B-Instruct": {
1335
- "description": "Qwen2-7B-Instruct Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
1352
+ "o1-preview": {
1353
+ "description": "o1OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
1336
1354
  },
1337
- "Pro/Qwen/Qwen2-7B-Instruct": {
1338
- "description": "Qwen2-7B-Instruct Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
1355
+ "o3-mini": {
1356
+ "description": "o3-mini 是我们最新的小型推理模型,在与 o1-mini 相同的成本和延迟目标下提供高智能。"
1339
1357
  },
1340
- "Pro/Qwen/Qwen2-VL-7B-Instruct": {
1341
- "description": "Qwen2-VL-7B-Instruct Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够用于高质量的基于视频的问答、对话和内容创作,还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等"
1358
+ "open-codestral-mamba": {
1359
+ "description": "Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。"
1342
1360
  },
1343
- "Qwen/Qwen2-VL-72B-Instruct": {
1344
- "description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够理解超过 20 分钟的视频,用于高质量的基于视频的问答、对话和内容创作。它还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等"
1361
+ "open-mistral-7b": {
1362
+ "description": "Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。"
1345
1363
  },
1346
- "internlm/internlm2_5-7b-chat": {
1347
- "description": "InternLM2.5-7B-Chat 是一个开源的对话模型,基于 InternLM2 架构开发。该 7B 参数规模的模型专注于对话生成任务,支持中英双语交互。模型采用了最新的训练技术,旨在提供流畅、智能的对话体验。InternLM2.5-7B-Chat 适用于各种对话应用场景,包括但不限于智能客服、个人助手等领域"
1364
+ "open-mistral-nemo": {
1365
+ "description": "Mistral Nemo是一个与Nvidia合作开发的12B模型,提供出色的推理和编码性能,易于集成和替换。"
1348
1366
  },
1349
- "internlm/internlm2_5-20b-chat": {
1350
- "description": "InternLM2.5-20B-Chat 是一个开源的大规模对话模型,基于 InternLM2 架构开发。该模型拥有 200 亿参数,在数学推理方面表现出色,超越了同量级的 Llama3 和 Gemma2-27B 模型。InternLM2.5-20B-Chat 在工具调用能力方面有显著提升,支持从上百个网页收集信息进行分析推理,并具备更强的指令理解、工具选择和结果反思能力。它适用于构建复杂智能体,可进行多轮工具调用以完成复杂任务"
1367
+ "open-mixtral-8x22b": {
1368
+ "description": "Mixtral 8x22B是一个更大的专家模型,专注于复杂任务,提供出色的推理能力和更高的吞吐量。"
1351
1369
  },
1352
- "Pro/OpenGVLab/InternVL2-8B": {
1353
- "description": "InternVL2-8B 是 InternVL 2.0 系列多模态大语言模型中的一员。该模型由 InternViT-300M-448px 视觉模型、MLP 投影层和 internlm2_5-7b-chat 语言模型组成。它在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。InternVL2-8B 使用 8K 上下文窗口训练,能够处理长文本、多图像和视频输入,显著提升了模型在这些任务上的处理能力"
1370
+ "open-mixtral-8x7b": {
1371
+ "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。"
1354
1372
  },
1355
- "OpenGVLab/InternVL2-26B": {
1356
- "description": "InternVL2-26B 是 InternVL 2.0 系列多模态大语言模型中的一员。该模型由 InternViT-6B-448px-V1-5 视觉模型、MLP 投影层和 internlm2-chat-20b 语言模型组成。它在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。InternVL2-26B 使用 8K 上下文窗口训练,能够处理长文本、多图像和视频输入,显著提升了模型在这些任务上的处理能力"
1373
+ "openai/gpt-4o": {
1374
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
1357
1375
  },
1358
- "THUDM/glm-4-9b-chat": {
1359
- "description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
1376
+ "openai/gpt-4o-mini": {
1377
+ "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4"
1360
1378
  },
1361
- "Pro/THUDM/glm-4-9b-chat": {
1362
- "description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
1379
+ "openai/o1-mini": {
1380
+ "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
1363
1381
  },
1364
- "THUDM/chatglm3-6b": {
1365
- "description": "ChatGLM3-6B ChatGLM 系列的开源模型,由智谱 AI 开发。该模型保留了前代模型的优秀特性,如对话流畅和部署门槛低,同时引入了新的特性。它采用了更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的预训练模型中表现出色。ChatGLM3-6B 支持多轮对话、工具调用、代码执行和 Agent 任务等复杂场景。除对话模型外,还开源了基础模型 ChatGLM-6B-Base 和长文本对话模型 ChatGLM3-6B-32K。该模型对学术研究完全开放,在登记后也允许免费商业使用"
1382
+ "openai/o1-preview": {
1383
+ "description": "o1OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
1366
1384
  },
1367
- "01-ai/Yi-1.5-6B-Chat": {
1368
- "description": "Yi-1.5-6B-Chat Yi-1.5 系列的一个变体,属于开源聊天模型。Yi-1.5 是 Yi 的升级版本,在 500B 个高质量语料上进行了持续预训练,并在 3M 多样化的微调样本上进行了微调。相比于 Yi,Yi-1.5 在编码、数学、推理和指令遵循能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。该模型具有 4K、16K 和 32K 的上下文长度版本,预训练总量达到 3.6T 个 token"
1385
+ "openchat/openchat-7b": {
1386
+ "description": "OpenChat 7B 是经过“C-RLFT(条件强化学习微调)”策略精调的开源语言模型库。"
1369
1387
  },
1370
- "01-ai/Yi-1.5-9B-Chat-16K": {
1371
- "description": "Yi-1.5-9B-Chat-16K Yi-1.5 系列的一个变体,属于开源聊天模型。Yi-1.5 Yi 的升级版本,在 500B 个高质量语料上进行了持续预训练,并在 3M 多样化的微调样本上进行了微调。相比于 Yi,Yi-1.5 在编码、数学、推理和指令遵循能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。该模型在同等规模的开源模型中表现最佳"
1388
+ "openrouter/auto": {
1389
+ "description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。"
1372
1390
  },
1373
- "01-ai/Yi-1.5-34B-Chat-16K": {
1374
- "description": "Yi-1.5-34B-Chat-16K 是 Yi-1.5 系列的一个变体,属于开源聊天模型。Yi-1.5 是 Yi 的升级版本,在 500B 个高质量语料上进行了持续预训练,并在 3M 多样化的微调样本上进行了微调。相比于 Yi,Yi-1.5 在编码、数学、推理和指令遵循能力方面表现更强,同时保持了出色的语言理解、常识推理和阅读理解能力。该模型在大多数基准测试中与更大的模型相当或表现更佳,具有 16K 的上下文长度"
1391
+ "phi3": {
1392
+ "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。"
1375
1393
  },
1376
- "Pro/google/gemma-2-9b-it": {
1377
- "description": "Gemma 是 Google 开发的轻量级、最先进的开放模型系列之一。它是一个仅解码器的大型语言模型,支持英语,提供开放权重、预训练变体和指令微调变体。Gemma 模型适用于各种文本生成任务,包括问答、摘要和推理。该 9B 模型是通过 8 万亿个 tokens 训练而成。其相对较小的规模使其可以在资源有限的环境中部署,如笔记本电脑、台式机或您自己的云基础设施,从而使更多人能够访问最先进的 AI 模型并促进创新"
1394
+ "phi3:14b": {
1395
+ "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。"
1378
1396
  },
1379
- "google/gemma-2-27b-it": {
1380
- "description": "Gemma 2 27B 是一款通用大语言模型,具有优异的性能和广泛的应用场景。"
1397
+ "pixtral-12b-2409": {
1398
+ "description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。"
1381
1399
  },
1382
- "meta-llama/Meta-Llama-3.1-8B-Instruct": {
1383
- "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 405B 三种参数规模的预训练和指令微调变体。该 8B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
1400
+ "pixtral-large-latest": {
1401
+ "description": "Pixtral Large 是一款拥有 1240 亿参数的开源多模态模型,基于 Mistral Large 2 构建。这是我们多模态家族中的第二款模型,展现了前沿水平的图像理解能力。"
1384
1402
  },
1385
- "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
1386
- "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 8B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
1403
+ "pro-128k": {
1404
+ "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
1387
1405
  },
1388
- "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1389
- "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 70B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
1406
+ "qvq-72b-preview": {
1407
+ "description": "QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。"
1390
1408
  },
1391
- "meta-llama/Meta-Llama-3.1-405B-Instruct": {
1392
- "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 405B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
1409
+ "qwen-coder-plus-latest": {
1410
+ "description": "通义千问代码模型。"
1393
1411
  },
1394
- "meta-llama/Llama-3.3-70B-Instruct": {
1395
- "description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
1412
+ "qwen-coder-turbo-latest": {
1413
+ "description": "通义千问代码模型。"
1396
1414
  },
1397
- "TeleAI/TeleChat2": {
1398
- "description": "TeleChat2大模型是由中国电信从0到1自主研发的生成式语义大模型,支持百科问答、代码生成、长文生成等功能,为用户提供对话咨询服务,能够与用户进行对话互动,回答问题,协助创作,高效便捷地帮助用户获取信息、知识和灵感。模型在幻觉问题、长文生成、逻辑理解等方面均有较出色表现。"
1415
+ "qwen-long": {
1416
+ "description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。"
1399
1417
  },
1400
- "TeleAI/TeleMM": {
1401
- "description": "TeleMM多模态大模型是由中国电信自主研发的多模态理解大模型,能够处理文本、图像等多种模态输入,支持图像理解、图表分析等功能,为用户提供跨模态的理解服务。模型能够与用户进行多模态交互,准确理解输入内容,回答问题、协助创作,并高效提供多模态信息和灵感支持。在细粒度感知,逻辑推理等多模态任务上有出色表现"
1418
+ "qwen-math-plus-latest": {
1419
+ "description": "通义千问数学模型是专门用于数学解题的语言模型。"
1402
1420
  },
1403
- "step-2-mini": {
1404
- "description": "基于新一代自研Attention架构MFA的极速大模型,用极低成本达到和step1类似的效果,同时保持了更高的吞吐和更快响应时延。能够处理通用任务,在代码能力上具备特长。"
1421
+ "qwen-math-turbo-latest": {
1422
+ "description": "通义千问数学模型是专门用于数学解题的语言模型。"
1405
1423
  },
1406
- "step-1o-vision-32k": {
1407
- "description": "该模型拥有强大的图像理解能力。相比于 step-1v 系列模型,拥有更强的视觉性能。"
1424
+ "qwen-max": {
1425
+ "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
1408
1426
  },
1409
- "taichu_llm": {
1410
- "description": "基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力"
1427
+ "qwen-max-latest": {
1428
+ "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
1411
1429
  },
1412
- "taichu2_mm": {
1413
- "description": "融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出"
1430
+ "qwen-plus": {
1431
+ "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
1414
1432
  },
1415
- "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1416
- "description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 是 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
1433
+ "qwen-plus-latest": {
1434
+ "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
1417
1435
  },
1418
- "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
1419
- "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1436
+ "qwen-turbo": {
1437
+ "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
1420
1438
  },
1421
- "meta-llama/Llama-Vision-Free": {
1422
- "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1439
+ "qwen-turbo-latest": {
1440
+ "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
1423
1441
  },
1424
- "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
1425
- "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1442
+ "qwen-vl-chat-v1": {
1443
+ "description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。"
1426
1444
  },
1427
- "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
1428
- "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
1445
+ "qwen-vl-max-latest": {
1446
+ "description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。"
1429
1447
  },
1430
- "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": {
1431
- "description": "Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。"
1448
+ "qwen-vl-ocr-latest": {
1449
+ "description": "通义千问OCR是文字提取专有模型,专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种文字,目前支持的语言有:汉语、英语、法语、日语、韩语、德语、俄语、意大利语、越南语、阿拉伯语。"
1432
1450
  },
1433
- "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": {
1434
- "description": "Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。"
1451
+ "qwen-vl-plus-latest": {
1452
+ "description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。"
1435
1453
  },
1436
- "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1437
- "description": "405B Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。"
1454
+ "qwen-vl-v1": {
1455
+ "description": " Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。"
1438
1456
  },
1439
- "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1440
- "description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型语言模型,旨在提高 LLM 生成的响应对用户查询的帮助程度。该模型在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 等基准测试中表现出色,截至 2024 年 10 月 1 日,在所有三个自动对齐基准测试中排名第一。该模型使用 RLHF(特别是 REINFORCE)、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示在 Llama-3.1-70B-Instruct 模型基础上进行训练"
1457
+ "qwen/qwen-2-7b-instruct:free": {
1458
+ "description": "Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。"
1441
1459
  },
1442
- "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": {
1443
- "description": "Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。"
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "面向中文和英文的 LLM,针对语言、编程、数学、推理等领域。"
1444
1462
  },
1445
- "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": {
1446
- "description": "Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。"
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "高级 LLM,支持代码生成、推理和修复,涵盖主流编程语言。"
1447
1465
  },
1448
- "meta-llama/Meta-Llama-3-8B-Instruct-Lite": {
1449
- "description": "Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。"
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "强大的中型代码模型,支持 32K 上下文长度,擅长多语言编程。"
1450
1468
  },
1451
- "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
1452
- "description": "Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。"
1469
+ "qwen2": {
1470
+ "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1453
1471
  },
1454
- "meta-llama/Llama-3-8b-chat-hf": {
1455
- "description": "Llama 3 8B Instruct Reference 提供多语言支持,涵盖丰富的领域知识。"
1472
+ "qwen2.5": {
1473
+ "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1456
1474
  },
1457
- "meta-llama/Llama-3-70b-chat-hf": {
1458
- "description": "Llama 3 70B Instruct Reference 是功能强大的聊天模型,支持复杂的对话需求。"
1475
+ "qwen2.5-14b-instruct": {
1476
+ "description": "通义千问2.5对外开源的14B规模的模型。"
1459
1477
  },
1460
- "meta-llama/Llama-2-13b-chat-hf": {
1461
- "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。"
1478
+ "qwen2.5-14b-instruct-1m": {
1479
+ "description": "通义千问2.5对外开源的72B规模的模型。"
1462
1480
  },
1463
- "meta-llama/Llama-2-70b-hf": {
1464
- "description": "LLaMA-2 提供优秀的语言处理能力和出色的交互体验。"
1481
+ "qwen2.5-32b-instruct": {
1482
+ "description": "通义千问2.5对外开源的32B规模的模型。"
1465
1483
  },
1466
- "codellama/CodeLlama-34b-Instruct-hf": {
1467
- "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。"
1484
+ "qwen2.5-72b-instruct": {
1485
+ "description": "通义千问2.5对外开源的72B规模的模型。"
1468
1486
  },
1469
- "google/gemma-2b-it": {
1470
- "description": "Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。"
1487
+ "qwen2.5-7b-instruct": {
1488
+ "description": "通义千问2.5对外开源的7B规模的模型。"
1471
1489
  },
1472
- "mistralai/Mistral-7B-Instruct-v0.2": {
1473
- "description": "Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。"
1490
+ "qwen2.5-coder-1.5b-instruct": {
1491
+ "description": "通义千问代码模型开源版。"
1474
1492
  },
1475
- "mistralai/Mistral-7B-Instruct-v0.1": {
1476
- "description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。"
1493
+ "qwen2.5-coder-32b-instruct": {
1494
+ "description": "通义千问代码模型开源版。"
1477
1495
  },
1478
- "mistralai/Mistral-7B-v0.1": {
1479
- "description": "Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。"
1496
+ "qwen2.5-coder-7b-instruct": {
1497
+ "description": "通义千问代码模型开源版。"
1480
1498
  },
1481
- "mistralai/Mixtral-8x7B-Instruct-v0.1": {
1482
- "description": "Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。"
1499
+ "qwen2.5-math-1.5b-instruct": {
1500
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
1483
1501
  },
1484
- "mistralai/Mixtral-8x7B-v0.1": {
1485
- "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。"
1502
+ "qwen2.5-math-72b-instruct": {
1503
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
1486
1504
  },
1487
- "mistralai/Mixtral-8x22B-Instruct-v0.1": {
1488
- "description": "Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。"
1505
+ "qwen2.5-math-7b-instruct": {
1506
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
1489
1507
  },
1490
- "microsoft/WizardLM-2-8x22B": {
1491
- "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1508
+ "qwen2.5-vl-72b-instruct": {
1509
+ "description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
1492
1510
  },
1493
- "deepseek-ai/deepseek-llm-67b-chat": {
1494
- "description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
1511
+ "qwen2.5-vl-7b-instruct": {
1512
+ "description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
1495
1513
  },
1496
- "Qwen/Qwen2.5-7B-Instruct-Turbo": {
1497
- "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
1514
+ "qwen2.5:0.5b": {
1515
+ "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1498
1516
  },
1499
- "Qwen/Qwen2.5-72B-Instruct-Turbo": {
1500
- "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
1517
+ "qwen2.5:1.5b": {
1518
+ "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1501
1519
  },
1502
- "Qwen/Qwen2-72B-Instruct": {
1503
- "description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
1520
+ "qwen2.5:72b": {
1521
+ "description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1504
1522
  },
1505
- "databricks/dbrx-instruct": {
1506
- "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。"
1523
+ "qwen2:0.5b": {
1524
+ "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1507
1525
  },
1508
- "upstage/SOLAR-10.7B-Instruct-v1.0": {
1509
- "description": "Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。"
1526
+ "qwen2:1.5b": {
1527
+ "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1510
1528
  },
1511
- "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
1512
- "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。"
1529
+ "qwen2:72b": {
1530
+ "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
1513
1531
  },
1514
- "Gryphe/MythoMax-L2-13b": {
1515
- "description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。"
1532
+ "qwq": {
1533
+ "description": "QwQ 是一个实验研究模型,专注于提高 AI 推理能力。"
1516
1534
  },
1517
- "togethercomputer/StripedHyena-Nous-7B": {
1518
- "description": "StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。"
1535
+ "qwq-32b-preview": {
1536
+ "description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
1519
1537
  },
1520
1538
  "solar-1-mini-chat": {
1521
1539
  "description": "Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。"
@@ -1526,76 +1544,118 @@
1526
1544
  "solar-pro": {
1527
1545
  "description": "Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。"
1528
1546
  },
1529
- "ernie-3.5-8k": {
1530
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
1547
+ "sonar": {
1548
+ "description": "基于搜索上下文的轻量级搜索产品,比 Sonar Pro 更快、更便宜。"
1531
1549
  },
1532
- "ernie-3.5-8k-preview": {
1533
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
1550
+ "sonar-pro": {
1551
+ "description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
1534
1552
  },
1535
- "ernie-3.5-128k": {
1536
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
1553
+ "sonar-reasoning": {
1554
+ "description": "由 DeepSeek 推理模型提供支持的新 API 产品。"
1537
1555
  },
1538
- "ernie-4.0-8k-latest": {
1539
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
1556
+ "step-1-128k": {
1557
+ "description": "平衡性能与成本,适合一般场景。"
1540
1558
  },
1541
- "ernie-4.0-8k-preview": {
1542
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
1559
+ "step-1-256k": {
1560
+ "description": "具备超长上下文处理能力,尤其适合长文档分析。"
1543
1561
  },
1544
- "ernie-4.0-turbo-8k-latest": {
1545
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
1562
+ "step-1-32k": {
1563
+ "description": "支持中等长度的对话,适用于多种应用场景。"
1546
1564
  },
1547
- "ernie-4.0-turbo-128k": {
1548
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
1565
+ "step-1-8k": {
1566
+ "description": "小型模型,适合轻量级任务。"
1549
1567
  },
1550
- "ernie-4.0-turbo-8k-preview": {
1551
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
1568
+ "step-1-flash": {
1569
+ "description": "高速模型,适合实时对话。"
1552
1570
  },
1553
- "ernie-lite-8k": {
1554
- "description": "ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。"
1571
+ "step-1.5v-mini": {
1572
+ "description": "该模型拥有强大的视频理解能力。"
1555
1573
  },
1556
- "ernie-lite-pro-128k": {
1557
- "description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
1574
+ "step-1o-vision-32k": {
1575
+ "description": "该模型拥有强大的图像理解能力。相比于 step-1v 系列模型,拥有更强的视觉性能。"
1558
1576
  },
1559
- "ernie-tiny-8k": {
1560
- "description": "ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。"
1577
+ "step-1v-32k": {
1578
+ "description": "支持视觉输入,增强多模态交互体验。"
1561
1579
  },
1562
- "ernie-speed-128k": {
1563
- "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
1580
+ "step-1v-8k": {
1581
+ "description": "小型视觉模型,适合基本的图文任务。"
1564
1582
  },
1565
- "ernie-speed-pro-128k": {
1566
- "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
1583
+ "step-2-16k": {
1584
+ "description": "step-2模型的实验版本,包含最新的特性,滚动更新中。不推荐在正式生产环境使用。"
1567
1585
  },
1568
- "ernie-char-8k": {
1569
- "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
1586
+ "step-2-mini": {
1587
+ "description": "基于新一代自研Attention架构MFA的极速大模型,用极低成本达到和step1类似的效果,同时保持了更高的吞吐和更快响应时延。能够处理通用任务,在代码能力上具备特长。"
1570
1588
  },
1571
- "ernie-char-fiction-8k": {
1572
- "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
1589
+ "taichu2_mm": {
1590
+ "description": "融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出"
1573
1591
  },
1574
- "ernie-novel-8k": {
1575
- "description": "百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。"
1592
+ "taichu_llm": {
1593
+ "description": "基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力"
1576
1594
  },
1577
- "grok-beta": {
1578
- "description": "拥有与 Grok 2 相当的性能,但具有更高的效率、速度和功能。"
1595
+ "text-embedding-3-large": {
1596
+ "description": "最强大的向量化模型,适用于英文和非英文任务"
1579
1597
  },
1580
- "grok-vision-beta": {
1581
- "description": "最新的图像理解模型,可以处理各种各样的视觉信息,包括文档、图表、截图和照片等。"
1598
+ "text-embedding-3-small": {
1599
+ "description": "高效且经济的新一代 Embedding 模型,适用于知识检索、RAG 应用等场景"
1582
1600
  },
1583
- "grok-2-1212": {
1584
- "description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
1601
+ "togethercomputer/StripedHyena-Nous-7B": {
1602
+ "description": "StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。"
1585
1603
  },
1586
- "grok-2-vision-1212": {
1587
- "description": "该模型在准确性、指令遵循和多语言能力方面有所改进。"
1604
+ "tts-1": {
1605
+ "description": "最新的文本转语音模型,针对实时场景优化速度"
1588
1606
  },
1589
- "yi-vision-v2": {
1590
- "description": "复杂视觉任务模型,提供基于多张图片的高性能理解、分析能力。"
1607
+ "tts-1-hd": {
1608
+ "description": "最新的文本转语音模型,针对质量进行优化"
1591
1609
  },
1592
- "glm-zero-preview": {
1593
- "description": "GLM-Zero-Preview具备强大的复杂推理能力,在逻辑推理、数学、编程等领域表现优异。"
1610
+ "upstage/SOLAR-10.7B-Instruct-v1.0": {
1611
+ "description": "Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。"
1594
1612
  },
1595
- "glm-4v-flash": {
1596
- "description": "GLM-4V-Flash 专注于高效的单一图像理解,适用于快速图像解析的场景,例如实时图像分析或批量图像处理。"
1613
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1614
+ "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
1597
1615
  },
1598
- "codegeex-4": {
1599
- "description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。"
1616
+ "whisper-1": {
1617
+ "description": "通用语音识别模型,支持多语言语音识别、语音翻译和语言识别"
1618
+ },
1619
+ "wizardlm2": {
1620
+ "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1621
+ },
1622
+ "wizardlm2:8x22b": {
1623
+ "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1624
+ },
1625
+ "yi-large": {
1626
+ "description": "全新千亿参数模型,提供超强问答及文本生成能力。"
1627
+ },
1628
+ "yi-large-fc": {
1629
+ "description": "在 yi-large 模型的基础上支持并强化了工具调用的能力,适用于各种需要搭建 agent 或 workflow 的业务场景。"
1630
+ },
1631
+ "yi-large-preview": {
1632
+ "description": "初期版本,推荐使用 yi-large(新版本)。"
1633
+ },
1634
+ "yi-large-rag": {
1635
+ "description": "基于 yi-large 超强模型的高阶服务,结合检索与生成技术提供精准答案,实时全网检索信息服务。"
1636
+ },
1637
+ "yi-large-turbo": {
1638
+ "description": "超高性价比、卓越性能。根据性能和推理速度、成本,进行平衡性高精度调优。"
1639
+ },
1640
+ "yi-lightning": {
1641
+ "description": "最新高性能模型,保证高质量输出同时,推理速度大幅提升。"
1642
+ },
1643
+ "yi-lightning-lite": {
1644
+ "description": "轻量化版本,推荐使用 yi-lightning。"
1645
+ },
1646
+ "yi-medium": {
1647
+ "description": "中型尺寸模型升级微调,能力均衡,性价比高。深度优化指令遵循能力。"
1648
+ },
1649
+ "yi-medium-200k": {
1650
+ "description": "200K 超长上下文窗口,提供长文本深度理解和生成能力。"
1651
+ },
1652
+ "yi-spark": {
1653
+ "description": "小而精悍,轻量极速模型。提供强化数学运算和代码编写能力。"
1654
+ },
1655
+ "yi-vision": {
1656
+ "description": "复杂视觉任务模型,提供高性能图片理解、分析能力。"
1657
+ },
1658
+ "yi-vision-v2": {
1659
+ "description": "复杂视觉任务模型,提供基于多张图片的高性能理解、分析能力。"
1600
1660
  }
1601
- }
1661
+ }