@lobehub/chat 1.19.14 → 1.19.16

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (40) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/locales/ar/models.json +116 -48
  3. package/locales/ar/providers.json +4 -0
  4. package/locales/bg-BG/models.json +116 -48
  5. package/locales/bg-BG/providers.json +4 -0
  6. package/locales/de-DE/models.json +116 -48
  7. package/locales/de-DE/providers.json +4 -0
  8. package/locales/en-US/models.json +116 -48
  9. package/locales/en-US/providers.json +4 -0
  10. package/locales/es-ES/models.json +116 -48
  11. package/locales/es-ES/providers.json +4 -0
  12. package/locales/fr-FR/models.json +116 -48
  13. package/locales/fr-FR/providers.json +4 -0
  14. package/locales/it-IT/models.json +116 -48
  15. package/locales/it-IT/providers.json +4 -0
  16. package/locales/ja-JP/models.json +116 -48
  17. package/locales/ja-JP/providers.json +4 -0
  18. package/locales/ko-KR/models.json +116 -48
  19. package/locales/ko-KR/providers.json +4 -0
  20. package/locales/nl-NL/models.json +116 -48
  21. package/locales/nl-NL/providers.json +4 -0
  22. package/locales/pl-PL/models.json +0 -60
  23. package/locales/pl-PL/providers.json +4 -0
  24. package/locales/pt-BR/models.json +116 -48
  25. package/locales/pt-BR/providers.json +4 -0
  26. package/locales/ru-RU/models.json +116 -48
  27. package/locales/ru-RU/providers.json +4 -0
  28. package/locales/tr-TR/models.json +116 -48
  29. package/locales/tr-TR/providers.json +4 -0
  30. package/locales/vi-VN/models.json +0 -60
  31. package/locales/zh-CN/models.json +122 -54
  32. package/locales/zh-CN/providers.json +4 -0
  33. package/locales/zh-TW/models.json +116 -48
  34. package/locales/zh-TW/providers.json +4 -0
  35. package/package.json +1 -1
  36. package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-output.json +17 -198
  37. package/src/libs/unstructured/__tests__/fixtures/table-parse/auto-partition-basic-raw.json +0 -92
  38. package/src/libs/unstructured/__tests__/index.test.ts +3 -3
  39. package/src/store/global/action.test.ts +53 -0
  40. package/src/store/global/action.ts +16 -2
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。"
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。"
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。"
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。"
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Refresh of Phi-3-mini model."
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "Same Phi-3-medium model, but with a larger context size for RAG or few shot prompting."
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "A 14B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data."
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "Same Phi-3-mini model, but with a larger context size for RAG or few shot prompting."
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "Tiniest member of the Phi-3 family. Optimized for both quality and low latency."
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "Same Phi-3-small model, but with a larger context size for RAG or few shot prompting."
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "A 7B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data."
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
- "description": "作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。"
55
- },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。"
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 具备多领域问答和文本生成的能力。"
72
+ "description": "Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。"
61
73
  },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。"
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 通过结合高级预训练和微调提升对话表达能力。"
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。"
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2 是先进的通用语言模型,支持多种指令类型。"
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5 是全新的大型语言模型系列,具有更强的理解和生成能力。"
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。"
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。"
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder 专注于代码编写。"
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "作为双语会话语言模型, ChatGLM3能处理中英文转换任务。"
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math 专注于数学领域的问题求解,为高难度题提供专业解答。"
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。"
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。"
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "A 398B parameters (94B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation."
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "A 52B parameters (12B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation."
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "A production-grade Mamba-based LLM model to achieve best-in-class performance, quality, and cost efficiency."
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。"
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R is a scalable generative model targeting RAG and Tool Use to enable production-scale AI for enterprise."
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads."
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
259
286
  },
@@ -263,17 +290,11 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。"
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。"
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 具备67亿参数,支持英中文本处理。"
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。"
274
295
  },
275
296
  "deepseek-ai/deepseek-llm-67b-chat": {
276
- "description": "DeepSeek 67B 是为高复杂性对话训练的先进模型。"
297
+ "description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
277
298
  },
278
299
  "deepseek-chat": {
279
300
  "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
@@ -447,7 +468,7 @@
447
468
  "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
448
469
  },
449
470
  "gpt-4o": {
450
- "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
471
+ "description": "OpenAI's most advanced multimodal model in the GPT-4 family. Can handle both text and image inputs."
451
472
  },
452
473
  "gpt-4o-2024-05-13": {
453
474
  "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
@@ -456,7 +477,7 @@
456
477
  "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
457
478
  },
458
479
  "gpt-4o-mini": {
459
- "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。"
480
+ "description": "An affordable, efficient AI solution for diverse text and image tasks."
460
481
  },
461
482
  "gryphe/mythomax-l2-13b": {
462
483
  "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。"
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5 提供多场景下的智能对话解决方案。"
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。"
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。"
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications."
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "A versatile 8-billion parameter model optimized for dialogue and text generation tasks."
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks."
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks."
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks."
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。"
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。"
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 支持大容量文本生成和指令解析。"
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。"
547
582
  },
@@ -620,17 +655,26 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。"
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407) is an advanced Large Language Model (LLM) with state-of-the-art reasoning, knowledge and coding capabilities."
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。"
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small can be used on any language-based task that requires high efficiency and low latency."
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small是成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。"
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。"
631
675
  },
632
676
  "mistralai/Mistral-7B-Instruct-v0.2": {
633
- "description": "Mistral 7B 指令微调模型针对对话场景进行了优化,可用于文本生成和对话任务。"
677
+ "description": "Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。"
634
678
  },
635
679
  "mistralai/Mistral-7B-Instruct-v0.3": {
636
680
  "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。"
@@ -639,7 +683,7 @@
639
683
  "description": "Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。"
640
684
  },
641
685
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
642
- "description": "Mixtral 8x7B 模型支持多语言输入和输出,可用于文本生成和对话任务。"
686
+ "description": "Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。"
643
687
  },
644
688
  "mistralai/mistral-7b-instruct": {
645
689
  "description": "Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。"
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。"
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力,能够以自然分辨率和宽高比摄入图像,还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。"
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "通义千问代码模型。"
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。"
718
768
  },
719
- "qwen-max": {
720
- "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型"
769
+ "qwen-math-plus-latest": {
770
+ "description": "通义千问数学模型是专门用于数学解题的语言模型。"
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,扩展了上下文窗口"
772
+ "qwen-math-turbo-latest": {
773
+ "description": "通义千问数学模型是专门用于数学解题的语言模型。"
724
774
  },
725
- "qwen-plus": {
726
- "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入"
775
+ "qwen-max-latest": {
776
+ "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
727
777
  },
728
- "qwen-turbo": {
729
- "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入"
778
+ "qwen-plus-latest": {
779
+ "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。"
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "通义千问2对外开源的57B规模14B激活参数的MOE模型"
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "通义千问2.5对外开源的14B规模的模型。"
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "通义千问2.5对外开源的32B规模的模型。"
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "通义千问2.5对外开源的72B规模的模型。"
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "通义千问2.5对外开源的7B规模的模型。"
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "通义千问代码模型开源版。"
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "通义千问代码模型开源版。"
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "通义千问2对外开源的72B规模的模型"
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "通义千问2对外开源的7B规模的模型"
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Qwen2-Math 模型具有强大的数学解题能力"
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。"
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。"
22
23
  },
24
+ "github": {
25
+ "description": "With GitHub Models, developers can become AI engineers and build with the industry's leading AI models."
26
+ },
23
27
  "google": {
24
28
  "description": "Google 的 Gemini 系列是其最先进、通用的 A I模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了AI模型的效率与应用广泛性。"
25
29
  },
@@ -2,9 +2,6 @@
2
2
  "01-ai/Yi-1.5-34B-Chat-16K": {
3
3
  "description": "Yi-1.5 34B,以豐富的訓練樣本在行業應用中提供優越表現。"
4
4
  },
5
- "01-ai/Yi-1.5-6B-Chat": {
6
- "description": "Yi-1.5 是Yi系列的進化版本,擁有高品質的預訓練和豐富的微調數據。"
7
- },
8
5
  "01-ai/Yi-1.5-9B-Chat-16K": {
9
6
  "description": "Yi-1.5 9B 支持16K Tokens,提供高效、流暢的語言生成能力。"
10
7
  },
@@ -47,41 +44,56 @@
47
44
  "NousResearch/Nous-Hermes-2-Yi-34B": {
48
45
  "description": "Nous Hermes-2 Yi (34B) 提供優化的語言輸出和多樣化的應用可能。"
49
46
  },
47
+ "Phi-3-5-mini-instruct": {
48
+ "description": "Phi-3-mini模型的更新版本。"
49
+ },
50
+ "Phi-3-medium-128k-instruct": {
51
+ "description": "相同的Phi-3-medium模型,但具有更大的上下文大小,適用於RAG或少量提示。"
52
+ },
53
+ "Phi-3-medium-4k-instruct": {
54
+ "description": "一個14B參數模型,質量優於Phi-3-mini,專注於高質量、推理密集型數據。"
55
+ },
56
+ "Phi-3-mini-128k-instruct": {
57
+ "description": "相同的Phi-3-mini模型,但具有更大的上下文大小,適用於RAG或少量提示。"
58
+ },
59
+ "Phi-3-mini-4k-instruct": {
60
+ "description": "Phi-3系列中最小的成員。優化了質量和低延遲。"
61
+ },
62
+ "Phi-3-small-128k-instruct": {
63
+ "description": "相同的Phi-3-small模型,但具有更大的上下文大小,適用於RAG或少量提示。"
64
+ },
65
+ "Phi-3-small-8k-instruct": {
66
+ "description": "一個7B參數模型,質量優於Phi-3-mini,專注於高質量、推理密集型數據。"
67
+ },
50
68
  "Pro-128k": {
51
69
  "description": "Spark Pro-128K 配置了特大上下文處理能力,能夠處理多達128K的上下文信息,特別適合需通篇分析和長期邏輯關聯處理的長文內容,可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。"
52
70
  },
53
71
  "Qwen/Qwen1.5-110B-Chat": {
54
72
  "description": "作為 Qwen2 的測試版,Qwen1.5 使用大規模數據實現了更精確的對話功能。"
55
73
  },
56
- "Qwen/Qwen1.5-14B-Chat": {
57
- "description": "Qwen1.5 通過大規模數據集訓練,擅長複雜的語言任務。"
58
- },
59
- "Qwen/Qwen1.5-32B-Chat": {
60
- "description": "Qwen1.5 具備多領域問答和文本生成的能力。"
61
- },
62
74
  "Qwen/Qwen1.5-72B-Chat": {
63
75
  "description": "Qwen 1.5 Chat (72B) 提供快速響應和自然對話能力,適合多語言環境。"
64
76
  },
65
- "Qwen/Qwen1.5-7B-Chat": {
66
- "description": "Qwen1.5 通過結合高級預訓練和微調提升對話表達能力。"
77
+ "Qwen/Qwen2-72B-Instruct": {
78
+ "description": "Qwen2 是先進的通用語言模型,支持多種指令類型。"
67
79
  },
68
- "Qwen/Qwen2-1.5B-Instruct": {
69
- "description": "Qwen2 是全新的大型語言模型系列,旨在優化指令式任務的處理。"
80
+ "Qwen/Qwen2.5-14B-Instruct": {
81
+ "description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
70
82
  },
71
- "Qwen/Qwen2-57B-A14B-Instruct": {
72
- "description": "Qwen2 是全新的系列,57B A14B 型號在指令任務中表現卓越。"
83
+ "Qwen/Qwen2.5-32B-Instruct": {
84
+ "description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
73
85
  },
74
- "Qwen/Qwen2-72B-Instruct": {
75
- "description": "Qwen2 是先進的通用語言模型,支持多種指令類型。"
86
+ "Qwen/Qwen2.5-72B-Instruct": {
87
+ "description": "Qwen2.5是全新的大型語言模型系列,具有更強的理解和生成能力。"
76
88
  },
77
- "Qwen/Qwen2-7B-Instruct": {
78
- "description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。"
89
+ "Qwen/Qwen2.5-7B-Instruct": {
90
+ "description": "Qwen2.5是全新的大型語言模型系列,旨在優化指令式任務的處理。"
79
91
  },
80
- "Qwen/Qwen2-Math-72B-Instruct": {
81
- "description": "Qwen2-Math 專注於數學領域的問題求解,為高難度題提供專業解答。"
92
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
93
+ "description": "Qwen2.5-Coder專注於代碼編寫。"
82
94
  },
83
- "THUDM/chatglm3-6b": {
84
- "description": "作為雙語會話語言模型,ChatGLM3能處理中英文轉換任務。"
95
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
96
+ "description": "Qwen2.5-Math專注於數學領域的問題求解,為高難度題提供專業解答。"
85
97
  },
86
98
  "THUDM/glm-4-9b-chat": {
87
99
  "description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
@@ -158,6 +170,15 @@
158
170
  "accounts/yi-01-ai/models/yi-large": {
159
171
  "description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。"
160
172
  },
173
+ "ai21-jamba-1.5-large": {
174
+ "description": "一個398B參數(94B活躍)多語言模型,提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。"
175
+ },
176
+ "ai21-jamba-1.5-mini": {
177
+ "description": "一個52B參數(12B活躍)多語言模型,提供256K長上下文窗口、函數調用、結構化輸出和基於實體的生成。"
178
+ },
179
+ "ai21-jamba-instruct": {
180
+ "description": "一個生產級的基於Mamba的LLM模型,以實現最佳性能、質量和成本效率。"
181
+ },
161
182
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
162
183
  "description": "Claude 3.5 Sonnet提升了行業標準,性能超過競爭對手模型和Claude 3 Opus,在廣泛的評估中表現出色,同時具有我們中等層級模型的速度和成本。"
163
184
  },
@@ -254,6 +275,12 @@
254
275
  "cognitivecomputations/dolphin-mixtral-8x22b": {
255
276
  "description": "Dolphin Mixtral 8x22B 是一款為指令遵循、對話和編程設計的模型。"
256
277
  },
278
+ "cohere-command-r": {
279
+ "description": "Command R是一個可擴展的生成模型,針對RAG和工具使用,旨在為企業提供生產級AI。"
280
+ },
281
+ "cohere-command-r-plus": {
282
+ "description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。"
283
+ },
257
284
  "command-r": {
258
285
  "description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。"
259
286
  },
@@ -263,12 +290,6 @@
263
290
  "databricks/dbrx-instruct": {
264
291
  "description": "DBRX Instruct 提供高可靠性的指令處理能力,支持多行業應用。"
265
292
  },
266
- "deepseek-ai/DeepSeek-Coder-V2-Instruct": {
267
- "description": "DeepSeek Coder V2 為代碼任務設計,專注於高效的代碼生成。"
268
- },
269
- "deepseek-ai/DeepSeek-V2-Chat": {
270
- "description": "DeepSeek V2 具備67億參數,支持英中文本處理。"
271
- },
272
293
  "deepseek-ai/DeepSeek-V2.5": {
273
294
  "description": "DeepSeek V2.5 集合了先前版本的優秀特徵,增強了通用和編碼能力。"
274
295
  },
@@ -467,6 +488,8 @@
467
488
  "internlm/internlm2_5-7b-chat": {
468
489
  "description": "InternLM2.5 提供多場景下的智能對話解決方案。"
469
490
  },
491
+ "jamba-1.5-large": {},
492
+ "jamba-1.5-mini": {},
470
493
  "llama-3.1-70b-instruct": {
471
494
  "description": "Llama 3.1 70B Instruct 模型,具備 70B 參數,能在大型文本生成和指示任務中提供卓越性能。"
472
495
  },
@@ -530,6 +553,21 @@
530
553
  "mathstral": {
531
554
  "description": "MathΣtral 專為科學研究和數學推理設計,提供有效的計算能力和結果解釋。"
532
555
  },
556
+ "meta-llama-3-70b-instruct": {
557
+ "description": "一個強大的70億參數模型,在推理、編碼和廣泛的語言應用中表現出色。"
558
+ },
559
+ "meta-llama-3-8b-instruct": {
560
+ "description": "一個多功能的8億參數模型,優化了對話和文本生成任務。"
561
+ },
562
+ "meta-llama-3.1-405b-instruct": {
563
+ "description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。"
564
+ },
565
+ "meta-llama-3.1-70b-instruct": {
566
+ "description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。"
567
+ },
568
+ "meta-llama-3.1-8b-instruct": {
569
+ "description": "Llama 3.1指令調整的文本模型,針對多語言對話用例進行優化,並在許多可用的開源和封閉聊天模型中超越了常見行業基準。"
570
+ },
533
571
  "meta-llama/Llama-2-13b-chat-hf": {
534
572
  "description": "LLaMA-2 Chat (13B) 提供優秀的語言處理能力和出色的互動體驗。"
535
573
  },
@@ -539,9 +577,6 @@
539
577
  "meta-llama/Llama-3-8b-chat-hf": {
540
578
  "description": "LLaMA-3 Chat (8B) 提供多語言支持,涵蓋豐富的領域知識。"
541
579
  },
542
- "meta-llama/Meta-Llama-3-70B-Instruct": {
543
- "description": "LLaMA 3 支持大容量文本生成和指令解析。"
544
- },
545
580
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
546
581
  "description": "Llama 3 70B Instruct Lite 適合需要高效能和低延遲的環境。"
547
582
  },
@@ -620,12 +655,21 @@
620
655
  "mistral-large": {
621
656
  "description": "Mixtral Large 是 Mistral 的旗艦模型,結合代碼生成、數學和推理的能力,支持 128k 上下文窗口。"
622
657
  },
658
+ "mistral-large-2407": {
659
+ "description": "Mistral Large (2407)是一個先進的大型語言模型(LLM),具有最先進的推理、知識和編碼能力。"
660
+ },
623
661
  "mistral-large-latest": {
624
662
  "description": "Mistral Large 是旗艦大模型,擅長多語言任務、複雜推理和代碼生成,是高端應用的理想選擇。"
625
663
  },
626
664
  "mistral-nemo": {
627
665
  "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
628
666
  },
667
+ "mistral-small": {
668
+ "description": "Mistral Small可用於任何需要高效率和低延遲的語言任務。"
669
+ },
670
+ "mistral-small-latest": {
671
+ "description": "Mistral Small是一個成本效益高、快速且可靠的選擇,適用於翻譯、摘要和情感分析等用例。"
672
+ },
629
673
  "mistralai/Mistral-7B-Instruct-v0.1": {
630
674
  "description": "Mistral (7B) Instruct 以高性能著稱,適用於多種語言任務。"
631
675
  },
@@ -713,20 +757,29 @@
713
757
  "phi3:14b": {
714
758
  "description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。"
715
759
  },
760
+ "pixtral-12b-2409": {
761
+ "description": "Pixtral模型在圖表和圖理解、文檔問答、多模態推理和指令遵循等任務上表現出強大的能力,能夠以自然分辨率和寬高比攝入圖像,還能夠在長達128K令牌的長上下文窗口中處理任意數量的圖像。"
762
+ },
763
+ "qwen-coder-turbo-latest": {
764
+ "description": "通義千問代碼模型。"
765
+ },
716
766
  "qwen-long": {
717
767
  "description": "通義千問超大規模語言模型,支持長文本上下文,以及基於長文檔、多文檔等多個場景的對話功能。"
718
768
  },
719
- "qwen-max": {
720
- "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型"
769
+ "qwen-math-plus-latest": {
770
+ "description": "通義千問數學模型是專門用於數學解題的語言模型。"
721
771
  },
722
- "qwen-max-longcontext": {
723
- "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,擴展了上下文窗口"
772
+ "qwen-math-turbo-latest": {
773
+ "description": "通義千問數學模型是專門用於數學解題的語言模型。"
724
774
  },
725
- "qwen-plus": {
726
- "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入"
775
+ "qwen-max-latest": {
776
+ "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型。"
727
777
  },
728
- "qwen-turbo": {
729
- "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入"
778
+ "qwen-plus-latest": {
779
+ "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
780
+ },
781
+ "qwen-turbo-latest": {
782
+ "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
730
783
  },
731
784
  "qwen-vl-chat-v1": {
732
785
  "description": "通義千問VL支持靈活的交互方式,包括多圖、多輪問答、創作等能力的模型。"
@@ -746,17 +799,32 @@
746
799
  "qwen2": {
747
800
  "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
748
801
  },
749
- "qwen2-57b-a14b-instruct": {
750
- "description": "通義千問2對外開源的57B規模14B激活參數的MOE模型"
802
+ "qwen2.5-14b-instruct": {
803
+ "description": "通義千問2.5對外開源的14B規模的模型。"
804
+ },
805
+ "qwen2.5-32b-instruct": {
806
+ "description": "通義千問2.5對外開源的32B規模的模型。"
807
+ },
808
+ "qwen2.5-72b-instruct": {
809
+ "description": "通義千問2.5對外開源的72B規模的模型。"
810
+ },
811
+ "qwen2.5-7b-instruct": {
812
+ "description": "通義千問2.5對外開源的7B規模的模型。"
813
+ },
814
+ "qwen2.5-coder-1.5b-instruct": {
815
+ "description": "通義千問代碼模型開源版。"
816
+ },
817
+ "qwen2.5-coder-7b-instruct": {
818
+ "description": "通義千問代碼模型開源版。"
751
819
  },
752
- "qwen2-72b-instruct": {
753
- "description": "通義千問2對外開源的72B規模的模型"
820
+ "qwen2.5-math-1.5b-instruct": {
821
+ "description": "Qwen-Math模型具有強大的數學解題能力。"
754
822
  },
755
- "qwen2-7b-instruct": {
756
- "description": "通義千問2對外開源的7B規模的模型"
823
+ "qwen2.5-math-72b-instruct": {
824
+ "description": "Qwen-Math模型具有強大的數學解題能力。"
757
825
  },
758
- "qwen2-math-72b-instruct": {
759
- "description": "Qwen2-Math模型具有強大的數學解題能力"
826
+ "qwen2.5-math-7b-instruct": {
827
+ "description": "Qwen-Math模型具有強大的數學解題能力。"
760
828
  },
761
829
  "qwen2:0.5b": {
762
830
  "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI 是 360 公司推出的 AI 模型和服務平台,提供多種先進的自然語言處理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。這些模型結合了大規模參數和多模態能力,廣泛應用於文本生成、語義理解、對話系統與代碼生成等領域。通過靈活的定價策略,360 AI 滿足多樣化用戶需求,支持開發者集成,推動智能化應用的革新和發展。"
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI 是一家領先的高級語言模型服務商,專注於功能調用和多模態處理。其最新模型 Firefunction V2 基於 Llama-3,優化用於函數調用、對話及指令跟隨。視覺語言模型 FireLLaVA-13B 支持圖像和文本混合輸入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多語言指令跟隨與生成支持。"
22
23
  },
24
+ "github": {
25
+ "description": "透過 GitHub 模型,開發者可以成為 AI 工程師,並使用業界領先的 AI 模型進行建設。"
26
+ },
23
27
  "google": {
24
28
  "description": "Google 的 Gemini 系列是其最先進、通用的 AI 模型,由 Google DeepMind 打造,專為多模態設計,支持文本、代碼、圖像、音頻和視頻的無縫理解與處理。適用於從數據中心到移動設備的多種環境,極大提升了 AI 模型的效率與應用廣泛性。"
25
29
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.19.14",
3
+ "version": "1.19.16",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",