@lobehub/chat 1.31.5 → 1.31.7

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (61) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/Dockerfile +3 -1
  3. package/Dockerfile.database +3 -1
  4. package/docs/usage/providers/cloudflare.mdx +82 -0
  5. package/docs/usage/providers/cloudflare.zh-CN.mdx +79 -0
  6. package/locales/ar/models.json +39 -7
  7. package/locales/ar/providers.json +4 -0
  8. package/locales/bg-BG/models.json +38 -6
  9. package/locales/bg-BG/providers.json +4 -0
  10. package/locales/de-DE/models.json +39 -7
  11. package/locales/de-DE/providers.json +4 -0
  12. package/locales/en-US/models.json +38 -6
  13. package/locales/en-US/providers.json +4 -0
  14. package/locales/es-ES/models.json +38 -6
  15. package/locales/es-ES/providers.json +4 -0
  16. package/locales/fa-IR/modelProvider.json +12 -0
  17. package/locales/fa-IR/models.json +39 -7
  18. package/locales/fa-IR/providers.json +4 -0
  19. package/locales/fr-FR/models.json +38 -6
  20. package/locales/fr-FR/providers.json +4 -0
  21. package/locales/it-IT/models.json +38 -6
  22. package/locales/it-IT/providers.json +4 -0
  23. package/locales/ja-JP/models.json +39 -7
  24. package/locales/ja-JP/providers.json +4 -0
  25. package/locales/ko-KR/models.json +38 -6
  26. package/locales/ko-KR/providers.json +4 -0
  27. package/locales/nl-NL/models.json +38 -6
  28. package/locales/nl-NL/providers.json +4 -0
  29. package/locales/pl-PL/models.json +37 -5
  30. package/locales/pl-PL/providers.json +4 -0
  31. package/locales/pt-BR/models.json +38 -6
  32. package/locales/pt-BR/providers.json +4 -0
  33. package/locales/ru-RU/models.json +38 -6
  34. package/locales/ru-RU/providers.json +4 -0
  35. package/locales/tr-TR/models.json +39 -7
  36. package/locales/tr-TR/providers.json +4 -0
  37. package/locales/vi-VN/models.json +37 -5
  38. package/locales/vi-VN/providers.json +4 -0
  39. package/locales/zh-CN/modelProvider.json +1 -1
  40. package/locales/zh-CN/models.json +37 -5
  41. package/locales/zh-CN/providers.json +4 -0
  42. package/locales/zh-TW/models.json +38 -6
  43. package/locales/zh-TW/providers.json +4 -0
  44. package/package.json +1 -1
  45. package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
  46. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
  47. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
  48. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
  49. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
  50. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
  51. package/src/config/llm.ts +0 -66
  52. package/src/config/modelProviders/cloudflare.ts +1 -0
  53. package/src/features/ChatInput/ActionBar/config.ts +1 -20
  54. package/src/features/ChatInput/ActionBar/index.tsx +25 -28
  55. package/src/features/ChatInput/types.ts +1 -0
  56. package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
  57. package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
  58. package/src/features/Conversation/index.ts +2 -0
  59. package/src/server/globalConfig/genServerLLMConfig.test.ts +5 -1
  60. package/src/server/globalConfig/genServerLLMConfig.ts +3 -2
  61. package/src/features/Conversation/index.tsx +0 -30
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "Sử dụng công nghệ tăng cường tìm kiếm để kết nối toàn diện giữa mô hình lớn và kiến thức lĩnh vực, kiến thức toàn cầu. Hỗ trợ tải lên nhiều loại tài liệu như PDF, Word và nhập URL, thông tin được thu thập kịp thời và toàn diện, kết quả đầu ra chính xác và chuyên nghiệp."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài, sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "Mô hình ngôn ngữ quy mô lớn hàng đầu do Baidu tự phát triển, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, có thể đáp ứng hầu hết các yêu cầu về đối thoại, hỏi đáp, sáng tạo nội dung và các tình huống ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp luôn được cập nhật kịp thời."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "Mô hình ngôn ngữ lớn siêu cấp do Baidu tự phát triển, thể hiện hiệu suất xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "Mô hình ngôn ngữ quy mô siêu lớn tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi cho các tình huống tác vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo tính kịp thời của thông tin câu hỏi đáp. So với ERNIE 4.0, nó có hiệu suất tốt hơn."
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, được thiết kế để tối ưu hóa việc xử lý các tác vụ chỉ dẫn."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder tập trung vào việc viết mã."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large là mô hình MoE kiến trúc Transformer mã nguồn mở lớn nhất trong ngành, với tổng số tham số là 3890 tỷ và 52 tỷ tham số kích hoạt."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini là mô hình mới nhất do OpenAI phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và đầu ra văn bản. Là mô hình nhỏ gọn tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng cao hơn GPT-4 về sở thích trò chuyện."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Có hiệu suất tương đương với Grok 2, nhưng hiệu quả, tốc độ và tính năng cao hơn."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "Mô hình mã Qwen."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "Mô hình mã Qwen."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "Mô hình 7B quy mô mở nguồn của Qwen 2.5."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1035
+ "qwen2.5-coder-32b-instruct": {
1004
1036
  "description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) phù hợp cho các nhiệm vụ chỉ dẫn tinh vi, cung cấp khả năng xử lý ngôn ngữ xuất sắc."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội so với các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí tương đương với các mô hình tầm trung của chúng tôi."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 là mô hình ngôn ngữ do Microsoft AI cung cấp, đặc biệt xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "Nền tảng phát triển và dịch vụ ứng dụng AI gốc với mô hình lớn một cửa dành cho doanh nghiệp, cung cấp chuỗi công cụ toàn diện và dễ sử dụng cho phát triển mô hình trí tuệ nhân tạo sinh sinh và phát triển ứng dụng."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI là một công ty cam kết xây dựng trí tuệ nhân tạo để tăng tốc khám phá khoa học của nhân loại. Sứ mệnh của chúng tôi là thúc đẩy sự hiểu biết chung của chúng ta về vũ trụ."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI tập trung vào công nghệ trí tuệ nhân tạo trong kỷ nguyên AI 2.0, thúc đẩy mạnh mẽ sự đổi mới và ứng dụng của \"người + trí tuệ nhân tạo\", sử dụng các mô hình mạnh mẽ và công nghệ AI tiên tiến để nâng cao năng suất của con người và thực hiện sự trao quyền công nghệ."
90
94
  },
@@ -21,7 +21,7 @@
21
21
  },
22
22
  "bedrock": {
23
23
  "accessKeyId": {
24
- "desc": "填入AWS Access Key Id",
24
+ "desc": "填入 AWS Access Key Id",
25
25
  "placeholder": "AWS Access Key Id",
26
26
  "title": "AWS Access Key Id"
27
27
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning.\t"
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。"
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder 专注于代码编写。"
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。"
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large 是业界最大的开源 Transformer 架构 MoE 模型,拥有 3890 亿总参数量和 520 亿激活参数量。"
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。"
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "一种经济高效的AI解决方案,适用于多种文本和图像任务。"
589
615
  },
616
+ "grok-beta": {
617
+ "description": "拥有与 Grok 2 相当的性能,但具有更高的效率、速度和功能。"
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。"
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "通义千问代码模型。"
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "通义千问代码模型。"
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "通义千问2.5对外开源的7B规模的模型。"
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1035
+ "qwen2.5-coder-32b-instruct": {
1004
1036
  "description": "通义千问代码模型开源版。"
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "通义千问代码模型开源版。"
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Qwen-Math 模型具有强大的数学解题能力。"
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Qwen-Math 模型具有强大的数学解题能力。"
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。"
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。"
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力,并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。"
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "企业级一站式大模型与AI原生应用开发及服务平台,提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链"
87
88
  },
89
+ "xai": {
90
+ "description": "xAI 是一家致力于构建人工智能以加速人类科学发现的公司。我们的使命是推动我们对宇宙的共同理解。"
91
+ },
88
92
  "zeroone": {
89
93
  "description": "零一万物致力于推动以人为本的AI 2.0技术革命,旨在通过大语言模型创造巨大的经济和社会价值,并开创新的AI生态与商业模式。"
90
94
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra 是星火大模型系列中最為強大的版本,在升級聯網搜索鏈路同時,提升對文本內容的理解和總結能力。它是用於提升辦公生產力和準確響應需求的全方位解決方案,是引領行業的智能產品。"
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "採用搜索增強技術實現大模型與領域知識、全網知識的全面連結。支持PDF、Word等多種文檔上傳及網址輸入,信息獲取及時、全面,輸出結果準確、專業。"
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "百度自研的旗艦級大規模語言模型,覆蓋海量中英文語料,具有強大的通用能力,可滿足絕大部分對話問答、創作生成、插件應用場景要求;支持自動對接百度搜索插件,保障問答信息時效。"
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "百度自研的旗艦級超大規模語言模型,相較ERNIE 3.5實現了模型能力全面升級,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。"
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現出色,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於ERNIE 4.0在性能表現上更優秀"
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "百度自研的旗艦級超大規模大語言模型,綜合效果表現優異,廣泛適用於各領域複雜任務場景;支持自動對接百度搜索插件,保障問答信息時效。相較於 ERNIE 4.0 在性能表現上更為優秀。"
52
75
  },
@@ -146,8 +169,8 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 是全新的大型語言模型系列,旨在優化指令式任務的處理。"
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
150
- "description": "Qwen2.5-Coder專注於代碼編寫。"
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
173
+ "description": "Qwen2.5-Coder 專注於代碼編寫。"
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
153
176
  "description": "Qwen2.5-Math專注於數學領域的問題求解,為高難度題提供專業解答。"
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large 是業界最大的開源 Transformer 架構 MoE 模型,擁有 3890 億總參數量和 520 億激活參數量。"
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。"
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型,支持圖文輸入並輸出文本。作為他們最先進的小型模型,它比其他近期的前沿模型便宜很多,並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能,同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分,目前在聊天偏好上排名高於GPT-4。"
589
615
  },
616
+ "grok-beta": {
617
+ "description": "擁有與 Grok 2 相當的性能,但具備更高的效率、速度和功能。"
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B 是一款合併了多個頂尖模型的創意與智能相結合的語言模型。"
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K 配置了特大上下文處理能力,能夠處理多達128K的上下文信息,特別適合需通篇分析和長期邏輯關聯處理的長文內容,可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。"
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "通義千問代碼模型。"
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "通義千問代碼模型。"
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "通義千問2.5對外開源的7B規模的模型。"
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1035
+ "qwen2.5-coder-32b-instruct": {
1004
1036
  "description": "通義千問代碼模型開源版。"
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "通義千問代碼模型開源版。"
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Qwen-Math模型具有強大的數學解題能力。"
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Qwen-Math模型具有強大的數學解題能力。"
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) 適用於精細化指令任務,提供出色的語言處理能力。"
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet 提升了行業標準,性能超越競爭對手模型和 Claude 3 Opus,在廣泛的評估中表現出色,同時具備我們中等層級模型的速度和成本。"
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock 是亞馬遜 AWS 提供的一項服務,專注於為企業提供先進的 AI 語言模型和視覺模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵蓋從輕量級到高性能的多種選擇,支持文本生成、對話、圖像處理等多種任務,適用於不同規模和需求的企業應用。"
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek 是一家專注於人工智慧技術研究和應用的公司,其最新模型 DeepSeek-V2.5 融合了通用對話和代碼處理能力,並在人類偏好對齊、寫作任務和指令跟隨等方面實現了顯著提升。"
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "企業級一站式大模型與AI原生應用開發及服務平台,提供最全面易用的生成式人工智慧模型開發、應用開發全流程工具鏈"
87
88
  },
89
+ "xai": {
90
+ "description": "xAI 是一家致力於構建人工智慧以加速人類科學發現的公司。我們的使命是推動我們對宇宙的共同理解。"
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI 專注於 AI 2.0 時代的人工智慧技術,大力推動「人+人工智慧」的創新和應用,採用超強大模型和先進 AI 技術以提升人類生產力,實現技術賦能。"
90
94
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.31.5",
3
+ "version": "1.31.7",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -1,9 +1,9 @@
1
- import Conversation from '@/features/Conversation';
2
1
  import { isMobileDevice } from '@/utils/server/responsive';
3
2
 
4
3
  import ChatHydration from './features/ChatHydration';
5
4
  import DesktopChatInput from './features/ChatInput/Desktop';
6
5
  import MobileChatInput from './features/ChatInput/Mobile';
6
+ import ChatList from './features/ChatList';
7
7
  import ZenModeToast from './features/ZenModeToast';
8
8
 
9
9
  const ChatConversation = () => {
@@ -13,7 +13,7 @@ const ChatConversation = () => {
13
13
  return (
14
14
  <>
15
15
  <ZenModeToast />
16
- <Conversation mobile={mobile} />
16
+ <ChatList mobile={mobile} />
17
17
  <ChatInput />
18
18
  <ChatHydration />
19
19
  </>
@@ -3,14 +3,19 @@ import { Maximize2, Minimize2 } from 'lucide-react';
3
3
  import { memo } from 'react';
4
4
 
5
5
  import ActionBar from '@/features/ChatInput/ActionBar';
6
+ import { ActionKeys } from '@/features/ChatInput/types';
6
7
 
7
8
  interface HeaderProps {
8
9
  expand: boolean;
10
+ leftActions: ActionKeys[];
11
+ rightActions: ActionKeys[];
9
12
  setExpand: (expand: boolean) => void;
10
13
  }
11
14
 
12
- const Header = memo<HeaderProps>(({ expand, setExpand }) => (
15
+ const Header = memo<HeaderProps>(({ expand, setExpand, leftActions, rightActions }) => (
13
16
  <ActionBar
17
+ leftActions={leftActions}
18
+ rightActions={rightActions}
14
19
  rightAreaEndRender={
15
20
  <ActionIcon
16
21
  icon={expand ? Minimize2 : Maximize2}
@@ -4,11 +4,8 @@ import { DraggablePanel } from '@lobehub/ui';
4
4
  import { memo, useState } from 'react';
5
5
  import { Flexbox } from 'react-layout-kit';
6
6
 
7
- import {
8
- CHAT_TEXTAREA_HEIGHT,
9
- CHAT_TEXTAREA_MAX_HEIGHT,
10
- HEADER_HEIGHT,
11
- } from '@/const/layoutTokens';
7
+ import { CHAT_TEXTAREA_HEIGHT, CHAT_TEXTAREA_MAX_HEIGHT } from '@/const/layoutTokens';
8
+ import { ActionKeys } from '@/features/ChatInput/ActionBar/config';
12
9
  import { useGlobalStore } from '@/store/global';
13
10
  import { systemStatusSelectors } from '@/store/global/selectors';
14
11
 
@@ -17,48 +14,71 @@ import Footer from './Footer';
17
14
  import Head from './Header';
18
15
  import TextArea from './TextArea';
19
16
 
20
- const DesktopChatInput = memo(() => {
21
- const [expand, setExpand] = useState<boolean>(false);
17
+ const defaultLeftActions = [
18
+ 'model',
19
+ 'fileUpload',
20
+ 'knowledgeBase',
21
+ 'temperature',
22
+ 'history',
23
+ 'stt',
24
+ 'tools',
25
+ 'token',
26
+ ] as ActionKeys[];
22
27
 
23
- const [inputHeight, updatePreference] = useGlobalStore((s) => [
24
- systemStatusSelectors.inputHeight(s),
25
- s.updateSystemStatus,
26
- ]);
28
+ const defaultRightActions = ['clear'] as ActionKeys[];
27
29
 
28
- return (
29
- <>
30
- {!expand && <LocalFiles />}
31
- <DraggablePanel
32
- fullscreen={expand}
33
- headerHeight={HEADER_HEIGHT}
34
- maxHeight={CHAT_TEXTAREA_MAX_HEIGHT}
35
- minHeight={CHAT_TEXTAREA_HEIGHT}
36
- onSizeChange={(_, size) => {
37
- if (!size) return;
30
+ interface DesktopChatInputProps {
31
+ leftActions?: ActionKeys[];
32
+ rightActions?: ActionKeys[];
33
+ }
34
+ const DesktopChatInput = memo<DesktopChatInputProps>(
35
+ ({ leftActions = defaultLeftActions, rightActions = defaultRightActions }) => {
36
+ const [expand, setExpand] = useState<boolean>(false);
38
37
 
39
- updatePreference({
40
- inputHeight:
41
- typeof size.height === 'string' ? Number.parseInt(size.height) : size.height,
42
- });
43
- }}
44
- placement="bottom"
45
- size={{ height: inputHeight, width: '100%' }}
46
- style={{ zIndex: 10 }}
47
- >
48
- <Flexbox
49
- gap={8}
50
- height={'100%'}
51
- padding={'12px 0 16px'}
52
- style={{ minHeight: CHAT_TEXTAREA_HEIGHT, position: 'relative' }}
38
+ const [inputHeight, updatePreference] = useGlobalStore((s) => [
39
+ systemStatusSelectors.inputHeight(s),
40
+ s.updateSystemStatus,
41
+ ]);
42
+
43
+ return (
44
+ <>
45
+ {!expand && <LocalFiles />}
46
+ <DraggablePanel
47
+ fullscreen={expand}
48
+ maxHeight={CHAT_TEXTAREA_MAX_HEIGHT}
49
+ minHeight={CHAT_TEXTAREA_HEIGHT}
50
+ onSizeChange={(_, size) => {
51
+ if (!size) return;
52
+
53
+ updatePreference({
54
+ inputHeight:
55
+ typeof size.height === 'string' ? Number.parseInt(size.height) : size.height,
56
+ });
57
+ }}
58
+ placement="bottom"
59
+ size={{ height: inputHeight, width: '100%' }}
60
+ style={{ zIndex: 10 }}
53
61
  >
54
- <Head expand={expand} setExpand={setExpand} />
55
- <TextArea setExpand={setExpand} />
56
- <Footer expand={expand} setExpand={setExpand} />
57
- </Flexbox>
58
- </DraggablePanel>
59
- </>
60
- );
61
- });
62
+ <Flexbox
63
+ gap={8}
64
+ height={'100%'}
65
+ padding={'12px 0 16px'}
66
+ style={{ minHeight: CHAT_TEXTAREA_HEIGHT, position: 'relative' }}
67
+ >
68
+ <Head
69
+ expand={expand}
70
+ leftActions={leftActions}
71
+ rightActions={rightActions}
72
+ setExpand={setExpand}
73
+ />
74
+ <TextArea setExpand={setExpand} />
75
+ <Footer expand={expand} setExpand={setExpand} />
76
+ </Flexbox>
77
+ </DraggablePanel>
78
+ </>
79
+ );
80
+ },
81
+ );
62
82
 
63
83
  DesktopChatInput.displayName = 'DesktopChatInput';
64
84
 
@@ -5,6 +5,7 @@ import { TextAreaRef } from 'antd/es/input/TextArea';
5
5
  import { memo, useRef, useState } from 'react';
6
6
 
7
7
  import ActionBar from '@/features/ChatInput/ActionBar';
8
+ import { ActionKeys } from '@/features/ChatInput/ActionBar/config';
8
9
  import STT from '@/features/ChatInput/STT';
9
10
  import SaveTopic from '@/features/ChatInput/Topic';
10
11
  import { useSendMessage } from '@/features/ChatInput/useSend';
@@ -15,6 +16,18 @@ import Files from './Files';
15
16
  import InputArea from './InputArea';
16
17
  import SendButton from './Send';
17
18
 
19
+ const defaultLeftActions = [
20
+ 'model',
21
+ 'fileUpload',
22
+ 'knowledgeBase',
23
+ 'temperature',
24
+ 'history',
25
+ 'tools',
26
+ 'token',
27
+ ] as ActionKeys[];
28
+
29
+ const defaultRightActions = ['clear'] as ActionKeys[];
30
+
18
31
  const MobileChatInput = memo(() => {
19
32
  const theme = useTheme();
20
33
  const ref = useRef<TextAreaRef>(null);
@@ -52,7 +65,12 @@ const MobileChatInput = memo(() => {
52
65
  topAddons={
53
66
  <>
54
67
  <Files />
55
- <ActionBar mobile padding={'0 8px'} rightAreaStartRender={<SaveTopic mobile />} />
68
+ <ActionBar
69
+ leftActions={defaultLeftActions}
70
+ padding={'0 8px'}
71
+ rightActions={defaultRightActions}
72
+ rightAreaStartRender={<SaveTopic mobile />}
73
+ />
56
74
  </>
57
75
  }
58
76
  value={value}