@lobehub/chat 1.36.8 → 1.36.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (53) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/models.json +81 -3
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +81 -3
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +81 -3
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +81 -3
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +81 -3
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +81 -3
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +81 -3
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +81 -3
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +81 -3
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +81 -3
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +81 -3
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/modelProvider.json +9 -9
  26. package/locales/pl-PL/models.json +81 -3
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +81 -3
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +81 -3
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +81 -3
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +81 -3
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +91 -13
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +81 -3
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +1 -1
  41. package/src/app/(backend)/api/webhooks/clerk/route.ts +18 -3
  42. package/src/config/modelProviders/azure.ts +0 -8
  43. package/src/config/modelProviders/higress.ts +0 -23
  44. package/src/config/modelProviders/openai.ts +0 -23
  45. package/src/database/server/models/__tests__/nextauth.test.ts +33 -0
  46. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +3 -13
  47. package/src/libs/next-auth/adapter/index.ts +8 -2
  48. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +2 -9
  49. package/src/server/routers/edge/config/index.test.ts +1 -1
  50. package/src/server/services/user/index.test.ts +200 -0
  51. package/src/server/services/user/index.ts +24 -32
  52. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -10
  53. package/vitest.config.ts +1 -1
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference API cung cấp một cách nhanh chóng và miễn phí để bạn khám phá hàng ngàn mô hình cho nhiều nhiệm vụ khác nhau. Dù bạn đang thiết kế nguyên mẫu cho một ứng dụng mới hay đang thử nghiệm khả năng của học máy, API này cho phép bạn truy cập ngay lập tức vào các mô hình hiệu suất cao trong nhiều lĩnh vực."
39
42
  },
@@ -50,10 +50,28 @@
50
50
  "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
51
51
  },
52
52
  "Baichuan4-Air": {
53
- "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
53
+ "description": ""
54
54
  },
55
55
  "Baichuan4-Turbo": {
56
- "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
56
+ "description": ""
57
+ },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持32k上下文窗口的推理和精调。"
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持4k上下文窗口的推理和精调。"
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持128k上下文窗口的推理和精调。"
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持32k上下文窗口的推理和精调。"
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持4k上下文窗口的推理和精调。"
57
75
  },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "适用于快速问答、模型微调场景"
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "云雀(Skylark)第二代模型,Skylark2-lite模型有较高的响应速度,适用于实时性要求高、成本敏感、对模型精度要求不高的场景,上下文窗口长度为8k。"
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro版本有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为32k。"
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro模型有较高的模型精度,适用于较为复杂的文本生成场景,如专业领域文案生成、小说创作、高质量翻译等,上下文窗口长度为4k。"
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro-character模型具有优秀的角色扮演和聊天能力,擅长根据用户prompt要求扮演不同角色与用户展开聊天,角色风格突出,对话内容自然流畅,适用于构建聊天机器人、虚拟助手和在线客服等场景,有较高的响应速度。"
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "云雀(Skylark)第二代模型,Skylark2-pro-turbo-8k推理更快,成本更低,上下文窗口长度为8k。"
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B 是 ChatGLM 系列的开源模型,由智谱 AI 开发。该模型保留了前代模型的优秀特性,如对话流畅和部署门槛低,同时引入了新的特性。它采用了更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的预训练模型中表现出色。ChatGLM3-6B 支持多轮对话、工具调用、代码执行和 Agent 任务等复杂场景。除对话模型外,还开源了基础模型 ChatGLM-6B-Base 和长文本对话模型 ChatGLM3-6B-32K。该模型对学术研究完全开放,在登记后也允许免费商业使用"
247
280
  },
@@ -476,11 +509,14 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
- "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
516
+ "description": ""
481
517
  },
482
518
  "command-r-plus": {
483
- "description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。"
519
+ "description": ""
484
520
  },
485
521
  "databricks/dbrx-instruct": {
486
522
  "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。"
@@ -539,8 +575,11 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 是最新的实验性模型,在文本和多模态用例中都有显著的性能提升。"
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
- "description": "Gemini 1.5 Flash 是 Google 最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
582
+ "description": "Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
544
583
  },
545
584
  "gemini-1.5-pro-001": {
546
585
  "description": "Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。"
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 是最新的生产就绪模型,提供更高质量的输出,特别在数学、长上下文和视觉任务方面有显著提升。"
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 提供出色的多模态处理能力,为应用开发带来更大灵活性。"
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。"
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro 支持高达200万个tokens,是中型多模态模型的理想选择,适用于复杂任务的多方面支持。"
553
598
  },
@@ -555,7 +600,10 @@
555
600
  "description": "Gemini Exp 1114 是 Google 的实验性多模态AI模型,对输出质量有一定改进。"
556
601
  },
557
602
  "gemini-exp-1121": {
558
- "description": "Gemini Exp 1121 是 Google 最新的实验性多模态AI模型,拥有改进的编码、推理和视觉能力。"
603
+ "description": "Gemini Exp 1121 是 Google 的实验性多模态AI模型,拥有改进的编码、推理和视觉能力。"
604
+ },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 是 Google 最新的实验性多模态AI模型,与历史版本相比有一定的质量提升。"
559
607
  },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
@@ -611,6 +659,9 @@
611
659
  "glm-4v": {
612
660
  "description": "GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。"
613
661
  },
662
+ "glm-4v-flash": {
663
+ "description": "GLM-4V-Flash 专注于高效的单一图像理解,适用于快速图像解析的场景,例如实时图像分析或批量图像处理。"
664
+ },
614
665
  "glm-4v-plus": {
615
666
  "description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。"
616
667
  },
@@ -647,8 +698,14 @@
647
698
  "gpt-3.5-turbo-instruct": {
648
699
  "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
649
700
  },
701
+ "gpt-35-turbo": {
702
+ "description": "GPT 3.5 Turbo,OpenAI提供的高效模型,适用于聊天和文本生成任务,支持并行函数调用。"
703
+ },
704
+ "gpt-35-turbo-16k": {
705
+ "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,适合复杂任务。"
706
+ },
650
707
  "gpt-4": {
651
- "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
708
+ "description": "GPT 4 Turbo,多模态模型,提供杰出的语言理解和生成能力,同时支持图像输入。"
652
709
  },
653
710
  "gpt-4-0125-preview": {
654
711
  "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
@@ -659,9 +716,6 @@
659
716
  "gpt-4-1106-preview": {
660
717
  "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
661
718
  },
662
- "gpt-4-1106-vision-preview": {
663
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
664
- },
665
719
  "gpt-4-32k": {
666
720
  "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。"
667
721
  },
@@ -678,7 +732,7 @@
678
732
  "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
679
733
  },
680
734
  "gpt-4-vision-preview": {
681
- "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
735
+ "description": "GPT-4 视觉预览版,专为图像分析和处理任务设计。"
682
736
  },
683
737
  "gpt-4o": {
684
738
  "description": "OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。"
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "一种经济高效的AI解决方案,适用于多种文本和图像任务。"
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。"
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。"
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 是 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。"
792
855
  },
@@ -957,13 +1020,13 @@
957
1020
  "description": "Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。"
958
1021
  },
959
1022
  "mistral-large": {
960
- "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。"
1023
+ "description": "Mistral的旗舰模型,适合需要大规模推理能力或高度专业化的复杂任务(合成文本生成、代码生成、RAG或代理)。"
961
1024
  },
962
1025
  "mistral-large-latest": {
963
1026
  "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。"
964
1027
  },
965
1028
  "mistral-nemo": {
966
- "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
1029
+ "description": "Mistral Nemo是一种尖端的语言模型(LLM),在其尺寸类别中拥有最先进的推理、世界知识和编码能力。"
967
1030
  },
968
1031
  "mistral-small": {
969
1032
  "description": "Mistral Small可用于任何需要高效率和低延迟的基于语言的任务。"
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "通义千问数学模型是专门用于数学解题的语言模型。"
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型。"
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。"
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入。"
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "通义千问2.5对外开源的7B规模的模型。"
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "通义千问代码模型开源版。"
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "通义千问代码模型开源版。"
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "通义千问代码模型开源版。"
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Qwen-Math 模型具有强大的数学解题能力。"
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Qwen-Math 模型具有强大的数学解题能力。"
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。"
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。"
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite 擁有極致的回應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持 128k 上下文窗口的推理和精調。"
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite 擁有極致的回應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持 32k 上下文窗口的推理和精調。"
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite 擁有極致的回應速度,更好的性價比,為客戶不同場景提供更靈活的選擇。支持 4k 上下文窗口的推理和精調。"
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 128k 上下文窗口的推理和精調。"
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 32k 上下文窗口的推理和精調。"
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "效果最好的主力模型,適合處理複雜任務,在參考問答、總結摘要、創作、文本分類、角色扮演等場景都有很好的效果。支持 4k 上下文窗口的推理和精調。"
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "適用於快速問答、模型微調場景"
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "雲雀(Skylark)第二代模型,Skylark2-lite 模型有較高的回應速度,適用於實時性要求高、成本敏感、對模型精度要求不高的場景,上下文窗口長度為 8k。"
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "雲雀(Skylark)第二代模型,Skylark2-pro 版本有較高的模型精度,適用於較為複雜的文本生成場景,如專業領域文案生成、小說創作、高品質翻譯等,上下文窗口長度為 32k。"
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "雲雀(Skylark)第二代模型,Skylark2-pro 模型有較高的模型精度,適用於較為複雜的文本生成場景,如專業領域文案生成、小說創作、高品質翻譯等,上下文窗口長度為 4k。"
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "雲雀(Skylark)第二代模型,Skylark2-pro-character 模型具有優秀的角色扮演和聊天能力,擅長根據用戶 prompt 要求扮演不同角色與用戶展開聊天,角色風格突出,對話內容自然流暢,適用於構建聊天機器人、虛擬助手和在線客服等場景,有較高的回應速度。"
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "雲雀(Skylark)第二代模型,Skylark2-pro-turbo-8k 推理更快,成本更低,上下文窗口長度為 8k。"
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B 是 ChatGLM 系列的開源模型,由智譜 AI 開發。該模型保留了前代模型的優秀特性,如對話流暢和部署門檻低,同時引入了新的特性。它採用了更多樣的訓練數據、更充分的訓練步數和更合理的訓練策略,在 10B 以下的預訓練模型中表現出色。ChatGLM3-6B 支持多輪對話、工具調用、代碼執行和 Agent 任務等複雜場景。除對話模型外,還開源了基礎模型 ChatGLM-6B-Base 和長文本對話模型 ChatGLM3-6B-32K。該模型對學術研究完全開放,在登記後也允許免費商業使用"
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+是一個最先進的RAG優化模型,旨在應對企業級工作負載。"
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。"
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 是最新的實驗性模型,在文本和多模態用例中都有顯著的性能提升。"
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 提供了優化後的多模態處理能力,適用多種複雜任務場景。"
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash 是 Google 最新的多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 是最新的生產就緒模型,提供更高品質的輸出,特別在數學、長上下文和視覺任務方面有顯著提升。"
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 提供出色的多模態處理能力,為應用開發帶來更大靈活性。"
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 結合最新優化技術,帶來更高效的多模態數據處理能力。"
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro 支持高達 200 萬個 tokens,是中型多模態模型的理想選擇,適用於複雜任務的多方面支持。"
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 是 Google 最新的實驗性多模態 AI 模型,與歷史版本相比有一定的質量提升。"
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
562
610
  },
@@ -611,6 +659,9 @@
611
659
  "glm-4v": {
612
660
  "description": "GLM-4V提供強大的圖像理解與推理能力,支持多種視覺任務。"
613
661
  },
662
+ "glm-4v-flash": {
663
+ "description": "GLM-4V-Flash 專注於高效的單一圖像理解,適用於快速圖像解析的場景,例如即時圖像分析或批量圖像處理。"
664
+ },
614
665
  "glm-4v-plus": {
615
666
  "description": "GLM-4V-Plus具備對視頻內容及多圖片的理解能力,適合多模態任務。"
616
667
  },
@@ -647,6 +698,12 @@
647
698
  "gpt-3.5-turbo-instruct": {
648
699
  "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125"
649
700
  },
701
+ "gpt-35-turbo": {
702
+ "description": "GPT 3.5 Turbo,OpenAI 提供的高效模型,適用於聊天和文本生成任務,支持並行函數調用。"
703
+ },
704
+ "gpt-35-turbo-16k": {
705
+ "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,適合複雜任務。"
706
+ },
650
707
  "gpt-4": {
651
708
  "description": "GPT-4提供了一個更大的上下文窗口,能夠處理更長的文本輸入,適用於需要廣泛信息整合和數據分析的場景。"
652
709
  },
@@ -659,9 +716,6 @@
659
716
  "gpt-4-1106-preview": {
660
717
  "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。"
661
718
  },
662
- "gpt-4-1106-vision-preview": {
663
- "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。"
664
- },
665
719
  "gpt-4-32k": {
666
720
  "description": "GPT-4提供了一個更大的上下文窗口,能夠處理更長的文本輸入,適用於需要廣泛信息整合和數據分析的場景。"
667
721
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o 是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型,支持圖文輸入並輸出文本。作為他們最先進的小型模型,它比其他近期的前沿模型便宜很多,並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能,同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分,目前在聊天偏好上排名高於GPT-4。"
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "混元最新 MOE 架構 FunctionCall 模型,經過高質量的 FunctionCall 數據訓練,上下文窗口達 32K,在多個維度的評測指標上處於領先。"
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "升級為 MOE 結構,上下文窗口為 256k,在 NLP、代碼、數學、行業等多項評測集上領先眾多開源模型。"
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 旨在處理結合視覺和文本數據的任務。它在圖像描述和視覺問答等任務中表現出色,跨越了語言生成和視覺推理之間的鴻溝。"
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3 多語言大語言模型 (LLM) 是 70B(文本輸入/文本輸出)中的預訓練和指令調整生成模型。Llama 3.3 指令調整的純文本模型針對多語言對話用例進行了優化,並且在常見行業基準上優於許多可用的開源和封閉式聊天模型。"
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B 提供無與倫比的複雜性處理能力,為高要求項目量身定制。"
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "通義千問數學模型是專門用於數學解題的語言模型。"
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問 2.5 產品版本背後的 API 模型。"
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型。"
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入。"
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入。"
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "通義千問2.5對外開源的7B規模的模型。"
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "通義千問代碼模型開源版。"
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "通義千問代碼模型開源版。"
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "通義千問代碼模型開源版。"
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Qwen-Math 模型具有強大的數學解題能力。"
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Qwen-Math模型具有強大的數學解題能力。"
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Groq 的 LPU 推理引擎在最新的獨立大語言模型(LLM)基準測試中表現卓越,以其驚人的速度和效率重新定義了 AI 解決方案的標準。Groq 是一種即時推理速度的代表,在基於雲的部署中展現了良好的性能。"
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference API 提供了一種快速且免費的方式,讓您可以探索成千上萬種模型,適用於各種任務。無論您是在為新應用程式進行原型設計,還是在嘗試機器學習的功能,這個 API 都能讓您即時訪問多個領域的高性能模型。"
39
42
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.36.8",
3
+ "version": "1.36.10",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -29,13 +29,28 @@ export const POST = async (req: Request): Promise<NextResponse> => {
29
29
  switch (type) {
30
30
  case 'user.created': {
31
31
  pino.info('creating user due to clerk webhook');
32
- return userService.createUser(data.id, data);
32
+ const result = await userService.createUser(data.id, data);
33
+
34
+ return NextResponse.json(result, { status: 200 });
33
35
  }
36
+
34
37
  case 'user.deleted': {
35
- return userService.deleteUser(data.id);
38
+ if (!data.id) {
39
+ pino.warn('clerk sent a delete user request, but no user ID was included in the payload');
40
+ return NextResponse.json({ message: 'ok' }, { status: 200 });
41
+ }
42
+
43
+ pino.info('delete user due to clerk webhook');
44
+
45
+ await userService.deleteUser(data.id);
46
+
47
+ return NextResponse.json({ message: 'user deleted' }, { status: 200 });
36
48
  }
49
+
37
50
  case 'user.updated': {
38
- return userService.updateUser(data.id, data);
51
+ const result = await userService.updateUser(data.id, data);
52
+
53
+ return NextResponse.json(result, { status: 200 });
39
54
  }
40
55
 
41
56
  default: {
@@ -32,14 +32,6 @@ const Azure: ModelProviderCard = {
32
32
  tokens: 128_000,
33
33
  vision: true,
34
34
  },
35
- {
36
- deploymentName: 'gpt-4-vision',
37
- description: 'GPT-4 视觉预览版,专为图像分析和处理任务设计。',
38
- displayName: 'GPT 4 Turbo with Vision Preview',
39
- id: 'gpt-4-vision-preview',
40
- tokens: 128_000,
41
- vision: true,
42
- },
43
35
  {
44
36
  deploymentName: 'gpt-4o-mini',
45
37
  description: 'GPT-4o Mini,小型高效模型,具备与GPT-4o相似的卓越性能。',
@@ -1320,29 +1320,6 @@ const Higress: ModelProviderCard = {
1320
1320
  },
1321
1321
  tokens: 128_000,
1322
1322
  },
1323
- {
1324
- description:
1325
- '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
1326
- displayName: 'GPT-4 Turbo Vision Preview',
1327
- id: 'gpt-4-vision-preview',
1328
- pricing: {
1329
- input: 10,
1330
- output: 30,
1331
- },
1332
- tokens: 128_000,
1333
- vision: true,
1334
- },
1335
- {
1336
- description:
1337
- '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
1338
- id: 'gpt-4-1106-vision-preview',
1339
- pricing: {
1340
- input: 10,
1341
- output: 30,
1342
- },
1343
- tokens: 128_000,
1344
- vision: true,
1345
- },
1346
1323
  {
1347
1324
  description:
1348
1325
  '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
@@ -166,29 +166,6 @@ const OpenAI: ModelProviderCard = {
166
166
  },
167
167
  tokens: 128_000,
168
168
  },
169
- {
170
- description:
171
- '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
172
- displayName: 'GPT-4 Turbo Vision Preview',
173
- id: 'gpt-4-vision-preview',
174
- pricing: {
175
- input: 10,
176
- output: 30,
177
- },
178
- tokens: 128_000,
179
- vision: true,
180
- },
181
- {
182
- description:
183
- '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。', // Will be discontinued on December 6, 2024
184
- id: 'gpt-4-1106-vision-preview',
185
- pricing: {
186
- input: 10,
187
- output: 30,
188
- },
189
- tokens: 128_000,
190
- vision: true,
191
- },
192
169
  {
193
170
  description:
194
171
  '最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。',
@@ -146,6 +146,39 @@ describe('LobeNextAuthDbAdapter', () => {
146
146
  await serverDB.query.users.findMany({ where: eq(users.id, anotherUserId) }),
147
147
  ).toHaveLength(1);
148
148
  });
149
+
150
+ it('should create a user if id not exist even email is invalid type', async () => {
151
+ // In previous version, it will link the account to the existing user if the email is null
152
+ // issue: https://github.com/lobehub/lobe-chat/issues/4918
153
+ expect(nextAuthAdapter).toBeDefined();
154
+ expect(nextAuthAdapter.createUser).toBeDefined();
155
+
156
+ const existUserId = 'user-db-1';
157
+ const existUserName = 'John Doe 1';
158
+ // @ts-expect-error: createUser is defined
159
+ await nextAuthAdapter.createUser({
160
+ ...user,
161
+ id: existUserId,
162
+ name: existUserName,
163
+ email: Object({}), // assign a non-string value
164
+ });
165
+
166
+ const anotherUserId = 'user-db-2';
167
+ const anotherUserName = 'John Doe 2';
168
+ // @ts-expect-error: createUser is defined
169
+ await nextAuthAdapter.createUser({
170
+ ...user,
171
+ id: anotherUserId,
172
+ name: anotherUserName,
173
+ // @ts-expect-error: try to assign undefined value
174
+ email: undefined,
175
+ });
176
+
177
+ // Should create a new user if id not exists and email is null
178
+ expect(
179
+ await serverDB.query.users.findMany({ where: eq(users.id, anotherUserId) }),
180
+ ).toHaveLength(1);
181
+ });
149
182
  });
150
183
 
151
184
  describe('deleteUser', () => {