@lobehub/chat 1.19.24 → 1.19.26

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (71) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/docker-compose/local/.env.example +17 -15
  5. package/docker-compose/local/.env.zh-CN.example +19 -16
  6. package/docker-compose/local/docker-compose.yml +17 -16
  7. package/docker-compose/local/init_data.json.tar.gz +0 -0
  8. package/docker-compose/local/s3_data.tar.gz +0 -0
  9. package/docker-compose/local/setup.sh +242 -0
  10. package/docker-compose/local-logto/.env.example +33 -0
  11. package/docker-compose/local-logto/.env.zh-CN.example +33 -0
  12. package/docker-compose/local-logto/docker-compose.yml +102 -0
  13. package/docs/self-hosting/advanced/auth/next-auth/auth0.mdx +5 -6
  14. package/docs/self-hosting/advanced/auth/next-auth/auth0.zh-CN.mdx +4 -5
  15. package/docs/self-hosting/advanced/auth/next-auth/authelia.mdx +4 -4
  16. package/docs/self-hosting/advanced/auth/next-auth/authelia.zh-CN.mdx +4 -4
  17. package/docs/self-hosting/advanced/auth/next-auth/authentik.mdx +4 -4
  18. package/docs/self-hosting/advanced/auth/next-auth/authentik.zh-CN.mdx +4 -4
  19. package/docs/self-hosting/advanced/auth/next-auth/cloudflare-zero-trust.mdx +4 -4
  20. package/docs/self-hosting/advanced/auth/next-auth/cloudflare-zero-trust.zh-CN.mdx +1 -1
  21. package/docs/self-hosting/advanced/auth/next-auth/github.mdx +3 -3
  22. package/docs/self-hosting/advanced/auth/next-auth/github.zh-CN.mdx +3 -3
  23. package/docs/self-hosting/advanced/auth/next-auth/logto.mdx +4 -4
  24. package/docs/self-hosting/advanced/auth/next-auth/logto.zh-CN.mdx +4 -4
  25. package/docs/self-hosting/advanced/auth/next-auth/microsoft-entra-id.mdx +4 -4
  26. package/docs/self-hosting/advanced/auth/next-auth/microsoft-entra-id.zh-CN.mdx +4 -4
  27. package/docs/self-hosting/advanced/auth/next-auth/zitadel.mdx +5 -5
  28. package/docs/self-hosting/advanced/auth/next-auth/zitadel.zh-CN.mdx +5 -5
  29. package/docs/self-hosting/server-database/docker-compose.mdx +2 -2
  30. package/docs/self-hosting/server-database/docker-compose.zh-CN.mdx +2 -2
  31. package/locales/ar/chat.json +2 -2
  32. package/locales/ar/models.json +3 -0
  33. package/locales/bg-BG/chat.json +2 -2
  34. package/locales/bg-BG/models.json +3 -0
  35. package/locales/de-DE/chat.json +2 -2
  36. package/locales/de-DE/models.json +3 -0
  37. package/locales/en-US/chat.json +2 -2
  38. package/locales/en-US/models.json +3 -0
  39. package/locales/es-ES/chat.json +2 -2
  40. package/locales/es-ES/models.json +3 -0
  41. package/locales/fr-FR/chat.json +2 -2
  42. package/locales/fr-FR/models.json +3 -0
  43. package/locales/it-IT/chat.json +2 -2
  44. package/locales/it-IT/models.json +3 -0
  45. package/locales/ja-JP/chat.json +2 -2
  46. package/locales/ja-JP/models.json +3 -0
  47. package/locales/ko-KR/chat.json +2 -2
  48. package/locales/ko-KR/models.json +3 -0
  49. package/locales/nl-NL/chat.json +2 -2
  50. package/locales/nl-NL/models.json +3 -0
  51. package/locales/pl-PL/chat.json +2 -2
  52. package/locales/pl-PL/models.json +131 -0
  53. package/locales/pt-BR/chat.json +2 -2
  54. package/locales/pt-BR/models.json +3 -0
  55. package/locales/ru-RU/chat.json +2 -2
  56. package/locales/ru-RU/models.json +3 -0
  57. package/locales/tr-TR/chat.json +2 -2
  58. package/locales/tr-TR/models.json +3 -0
  59. package/locales/vi-VN/chat.json +2 -2
  60. package/locales/vi-VN/models.json +131 -0
  61. package/locales/vi-VN/providers.json +4 -0
  62. package/locales/zh-CN/chat.json +2 -2
  63. package/locales/zh-CN/models.json +6 -3
  64. package/locales/zh-TW/chat.json +2 -2
  65. package/locales/zh-TW/models.json +3 -0
  66. package/package.json +1 -1
  67. package/src/app/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Main.tsx +2 -2
  68. package/src/config/modelProviders/ai360.ts +2 -1
  69. package/src/layout/GlobalProvider/StoreInitialization.tsx +12 -8
  70. package/src/libs/agent-runtime/ai360/index.ts +8 -0
  71. package/src/locales/default/chat.ts +2 -2
@@ -35,6 +35,9 @@
35
35
  "Gryphe/MythoMax-L2-13b": {
36
36
  "description": "MythoMax-L2 (13B) là một mô hình sáng tạo, phù hợp cho nhiều lĩnh vực ứng dụng và nhiệm vụ phức tạp."
37
37
  },
38
+ "Max-32k": {
39
+ "description": "Spark Max 32K được cấu hình với khả năng xử lý ngữ cảnh lớn, khả năng hiểu ngữ cảnh và lý luận logic mạnh mẽ hơn, hỗ trợ đầu vào văn bản 32K token, phù hợp cho việc đọc tài liệu dài, hỏi đáp kiến thức riêng tư và các tình huống khác."
40
+ },
38
41
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
39
42
  "description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc."
40
43
  },
@@ -44,6 +47,27 @@
44
47
  "NousResearch/Nous-Hermes-2-Yi-34B": {
45
48
  "description": "Nous Hermes-2 Yi (34B) cung cấp đầu ra ngôn ngữ tối ưu và khả năng ứng dụng đa dạng."
46
49
  },
50
+ "Phi-3-5-mini-instruct": {
51
+ "description": "Cập nhật mô hình Phi-3-mini."
52
+ },
53
+ "Phi-3-medium-128k-instruct": {
54
+ "description": "Mô hình Phi-3-medium giống nhau, nhưng với kích thước ngữ cảnh lớn hơn cho RAG hoặc gợi ý ít."
55
+ },
56
+ "Phi-3-medium-4k-instruct": {
57
+ "description": "Mô hình 14B tham số, chứng minh chất lượng tốt hơn Phi-3-mini, tập trung vào dữ liệu dày đặc lý luận chất lượng cao."
58
+ },
59
+ "Phi-3-mini-128k-instruct": {
60
+ "description": "Mô hình Phi-3-mini giống nhau, nhưng với kích thước ngữ cảnh lớn hơn cho RAG hoặc gợi ý ít."
61
+ },
62
+ "Phi-3-mini-4k-instruct": {
63
+ "description": "Thành viên nhỏ nhất của gia đình Phi-3. Tối ưu hóa cho cả chất lượng và độ trễ thấp."
64
+ },
65
+ "Phi-3-small-128k-instruct": {
66
+ "description": "Mô hình Phi-3-small giống nhau, nhưng với kích thước ngữ cảnh lớn hơn cho RAG hoặc gợi ý ít."
67
+ },
68
+ "Phi-3-small-8k-instruct": {
69
+ "description": "Mô hình 7B tham số, chứng minh chất lượng tốt hơn Phi-3-mini, tập trung vào dữ liệu dày đặc lý luận chất lượng cao."
70
+ },
47
71
  "Pro-128k": {
48
72
  "description": "Spark Pro-128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
49
73
  },
@@ -56,6 +80,24 @@
56
80
  "Qwen/Qwen2-72B-Instruct": {
57
81
  "description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn."
58
82
  },
83
+ "Qwen/Qwen2.5-14B-Instruct": {
84
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
85
+ },
86
+ "Qwen/Qwen2.5-32B-Instruct": {
87
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
88
+ },
89
+ "Qwen/Qwen2.5-72B-Instruct": {
90
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và tạo ra mạnh mẽ hơn."
91
+ },
92
+ "Qwen/Qwen2.5-7B-Instruct": {
93
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
94
+ },
95
+ "Qwen/Qwen2.5-Coder-7B-Instruct": {
96
+ "description": "Qwen2.5-Coder tập trung vào việc viết mã."
97
+ },
98
+ "Qwen/Qwen2.5-Math-72B-Instruct": {
99
+ "description": "Qwen2.5-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó."
100
+ },
59
101
  "THUDM/glm-4-9b-chat": {
60
102
  "description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
61
103
  },
@@ -131,6 +173,15 @@
131
173
  "accounts/yi-01-ai/models/yi-large": {
132
174
  "description": "Mô hình Yi-Large, có khả năng xử lý đa ngôn ngữ xuất sắc, có thể được sử dụng cho nhiều nhiệm vụ sinh và hiểu ngôn ngữ."
133
175
  },
176
+ "ai21-jamba-1.5-large": {
177
+ "description": "Mô hình đa ngôn ngữ với 398B tham số (94B hoạt động), cung cấp cửa sổ ngữ cảnh dài 256K, gọi hàm, đầu ra có cấu trúc và tạo ra nội dung có căn cứ."
178
+ },
179
+ "ai21-jamba-1.5-mini": {
180
+ "description": "Mô hình đa ngôn ngữ với 52B tham số (12B hoạt động), cung cấp cửa sổ ngữ cảnh dài 256K, gọi hàm, đầu ra có cấu trúc và tạo ra nội dung có căn cứ."
181
+ },
182
+ "ai21-jamba-instruct": {
183
+ "description": "Mô hình LLM dựa trên Mamba đạt hiệu suất, chất lượng và hiệu quả chi phí tốt nhất trong ngành."
184
+ },
134
185
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
135
186
  "description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội hơn các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí của mô hình tầm trung của chúng tôi."
136
187
  },
@@ -227,6 +278,12 @@
227
278
  "cognitivecomputations/dolphin-mixtral-8x22b": {
228
279
  "description": "Dolphin Mixtral 8x22B là mô hình được thiết kế cho việc tuân thủ hướng dẫn, đối thoại và lập trình."
229
280
  },
281
+ "cohere-command-r": {
282
+ "description": "Command R là một mô hình sinh tạo có thể mở rộng, nhắm đến RAG và Sử dụng Công cụ để cho phép AI quy mô sản xuất cho doanh nghiệp."
283
+ },
284
+ "cohere-command-r-plus": {
285
+ "description": "Command R+ là mô hình tối ưu hóa RAG hiện đại, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp."
286
+ },
230
287
  "command-r": {
231
288
  "description": "Command R là LLM được tối ưu hóa cho các nhiệm vụ đối thoại và ngữ cảnh dài, đặc biệt phù hợp cho tương tác động và quản lý kiến thức."
232
289
  },
@@ -434,6 +491,8 @@
434
491
  "internlm/internlm2_5-7b-chat": {
435
492
  "description": "InternLM2.5 cung cấp giải pháp đối thoại thông minh cho nhiều tình huống."
436
493
  },
494
+ "jamba-1.5-large": {},
495
+ "jamba-1.5-mini": {},
437
496
  "llama-3.1-70b-instruct": {
438
497
  "description": "Mô hình Llama 3.1 70B Instruct, có 70B tham số, có thể cung cấp hiệu suất xuất sắc trong các nhiệm vụ sinh văn bản và chỉ dẫn lớn."
439
498
  },
@@ -497,6 +556,21 @@
497
556
  "mathstral": {
498
557
  "description": "MathΣtral được thiết kế cho nghiên cứu khoa học và suy luận toán học, cung cấp khả năng tính toán hiệu quả và giải thích kết quả."
499
558
  },
559
+ "meta-llama-3-70b-instruct": {
560
+ "description": "Mô hình 70 tỷ tham số mạnh mẽ, xuất sắc trong lý luận, lập trình và các ứng dụng ngôn ngữ rộng lớn."
561
+ },
562
+ "meta-llama-3-8b-instruct": {
563
+ "description": "Mô hình 8 tỷ tham số đa năng, tối ưu hóa cho các tác vụ đối thoại và tạo văn bản."
564
+ },
565
+ "meta-llama-3.1-405b-instruct": {
566
+ "description": "Các mô hình văn bản chỉ được tinh chỉnh theo hướng dẫn Llama 3.1 được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên các tiêu chuẩn ngành phổ biến."
567
+ },
568
+ "meta-llama-3.1-70b-instruct": {
569
+ "description": "Các mô hình văn bản chỉ được tinh chỉnh theo hướng dẫn Llama 3.1 được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên các tiêu chuẩn ngành phổ biến."
570
+ },
571
+ "meta-llama-3.1-8b-instruct": {
572
+ "description": "Các mô hình văn bản chỉ được tinh chỉnh theo hướng dẫn Llama 3.1 được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên các tiêu chuẩn ngành phổ biến."
573
+ },
500
574
  "meta-llama/Llama-2-13b-chat-hf": {
501
575
  "description": "LLaMA-2 Chat (13B) cung cấp khả năng xử lý ngôn ngữ xuất sắc và trải nghiệm tương tác tuyệt vời."
502
576
  },
@@ -584,12 +658,21 @@
584
658
  "mistral-large": {
585
659
  "description": "Mixtral Large là mô hình hàng đầu của Mistral, kết hợp khả năng sinh mã, toán học và suy luận, hỗ trợ cửa sổ ngữ cảnh 128k."
586
660
  },
661
+ "mistral-large-2407": {
662
+ "description": "Mistral Large (2407) là một Mô hình Ngôn ngữ Lớn (LLM) tiên tiến với khả năng lý luận, kiến thức và lập trình hiện đại."
663
+ },
587
664
  "mistral-large-latest": {
588
665
  "description": "Mistral Large là mô hình lớn hàng đầu, chuyên về các nhiệm vụ đa ngôn ngữ, suy luận phức tạp và sinh mã, là lựa chọn lý tưởng cho các ứng dụng cao cấp."
589
666
  },
590
667
  "mistral-nemo": {
591
668
  "description": "Mistral Nemo được phát triển hợp tác giữa Mistral AI và NVIDIA, là mô hình 12B hiệu suất cao."
592
669
  },
670
+ "mistral-small": {
671
+ "description": "Mistral Small có thể được sử dụng cho bất kỳ nhiệm vụ nào dựa trên ngôn ngữ yêu cầu hiệu suất cao và độ trễ thấp."
672
+ },
673
+ "mistral-small-latest": {
674
+ "description": "Mistral Small là lựa chọn hiệu quả về chi phí, nhanh chóng và đáng tin cậy, phù hợp cho các trường hợp như dịch thuật, tóm tắt và phân tích cảm xúc."
675
+ },
593
676
  "mistralai/Mistral-7B-Instruct-v0.1": {
594
677
  "description": "Mistral (7B) Instruct nổi bật với hiệu suất cao, phù hợp cho nhiều nhiệm vụ ngôn ngữ."
595
678
  },
@@ -677,9 +760,30 @@
677
760
  "phi3:14b": {
678
761
  "description": "Phi-3 là mô hình mở nhẹ do Microsoft phát hành, phù hợp cho việc tích hợp hiệu quả và suy luận kiến thức quy mô lớn."
679
762
  },
763
+ "pixtral-12b-2409": {
764
+ "description": "Mô hình Pixtral thể hiện khả năng mạnh mẽ trong các nhiệm vụ như hiểu biểu đồ và hình ảnh, hỏi đáp tài liệu, suy luận đa phương tiện và tuân thủ hướng dẫn, có khả năng tiếp nhận hình ảnh với độ phân giải và tỷ lệ khung hình tự nhiên, cũng như xử lý bất kỳ số lượng hình ảnh nào trong cửa sổ ngữ cảnh dài lên đến 128K token."
765
+ },
766
+ "qwen-coder-turbo-latest": {
767
+ "description": "Mô hình mã Qwen."
768
+ },
680
769
  "qwen-long": {
681
770
  "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ ngữ cảnh văn bản dài và chức năng đối thoại dựa trên tài liệu dài, nhiều tài liệu."
682
771
  },
772
+ "qwen-math-plus-latest": {
773
+ "description": "Mô hình toán học Qwen được thiết kế đặc biệt để giải quyết các bài toán toán học."
774
+ },
775
+ "qwen-math-turbo-latest": {
776
+ "description": "Mô hình toán học Qwen được thiết kế đặc biệt để giải quyết các bài toán toán học."
777
+ },
778
+ "qwen-max-latest": {
779
+ "description": "Mô hình ngôn ngữ quy mô lớn Qwen với hàng trăm tỷ tham số, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác, là mô hình API đứng sau phiên bản sản phẩm Qwen 2.5 hiện tại."
780
+ },
781
+ "qwen-plus-latest": {
782
+ "description": "Phiên bản nâng cao của mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
783
+ },
784
+ "qwen-turbo-latest": {
785
+ "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và nhiều ngôn ngữ khác."
786
+ },
683
787
  "qwen-vl-chat-v1": {
684
788
  "description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v."
685
789
  },
@@ -698,6 +802,33 @@
698
802
  "qwen2": {
699
803
  "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
700
804
  },
805
+ "qwen2.5-14b-instruct": {
806
+ "description": "Mô hình 14B quy mô mở nguồn của Qwen 2.5."
807
+ },
808
+ "qwen2.5-32b-instruct": {
809
+ "description": "Mô hình 32B quy mô mở nguồn của Qwen 2.5."
810
+ },
811
+ "qwen2.5-72b-instruct": {
812
+ "description": "Mô hình 72B quy mô mở nguồn của Qwen 2.5."
813
+ },
814
+ "qwen2.5-7b-instruct": {
815
+ "description": "Mô hình 7B quy mô mở nguồn của Qwen 2.5."
816
+ },
817
+ "qwen2.5-coder-1.5b-instruct": {
818
+ "description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
819
+ },
820
+ "qwen2.5-coder-7b-instruct": {
821
+ "description": "Phiên bản mã nguồn mở của mô hình mã Qwen."
822
+ },
823
+ "qwen2.5-math-1.5b-instruct": {
824
+ "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
825
+ },
826
+ "qwen2.5-math-72b-instruct": {
827
+ "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
828
+ },
829
+ "qwen2.5-math-7b-instruct": {
830
+ "description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
831
+ },
701
832
  "qwen2:0.5b": {
702
833
  "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
703
834
  },
@@ -1,4 +1,5 @@
1
1
  {
2
+ "ai21": {},
2
3
  "ai360": {
3
4
  "description": "360 AI là nền tảng mô hình và dịch vụ AI do công ty 360 phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên tiên tiến, bao gồm 360GPT2 Pro, 360GPT Pro, 360GPT Turbo và 360GPT Turbo Responsibility 8K. Những mô hình này kết hợp giữa tham số quy mô lớn và khả năng đa phương thức, được ứng dụng rộng rãi trong tạo văn bản, hiểu ngữ nghĩa, hệ thống đối thoại và tạo mã. Thông qua chiến lược giá linh hoạt, 360 AI đáp ứng nhu cầu đa dạng của người dùng, hỗ trợ nhà phát triển tích hợp, thúc đẩy sự đổi mới và phát triển ứng dụng thông minh."
4
5
  },
@@ -20,6 +21,9 @@
20
21
  "fireworksai": {
21
22
  "description": "Fireworks AI là nhà cung cấp dịch vụ mô hình ngôn ngữ cao cấp hàng đầu, tập trung vào gọi chức năng và xử lý đa phương thức. Mô hình mới nhất của họ, Firefunction V2, dựa trên Llama-3, được tối ưu hóa cho gọi chức năng, đối thoại và tuân theo chỉ dẫn. Mô hình ngôn ngữ hình ảnh FireLLaVA-13B hỗ trợ đầu vào hỗn hợp hình ảnh và văn bản. Các mô hình đáng chú ý khác bao gồm dòng Llama và dòng Mixtral, cung cấp hỗ trợ cho việc tuân theo và tạo ra chỉ dẫn đa ngôn ngữ hiệu quả."
22
23
  },
24
+ "github": {
25
+ "description": "Với GitHub Models, các nhà phát triển có thể trở thành kỹ sư AI và xây dựng với các mô hình AI hàng đầu trong ngành."
26
+ },
23
27
  "google": {
24
28
  "description": "Dòng Gemini của Google là mô hình AI tiên tiến và đa năng nhất của họ, được phát triển bởi Google DeepMind, được thiết kế cho đa phương thức, hỗ trợ hiểu và xử lý liền mạch văn bản, mã, hình ảnh, âm thanh và video. Phù hợp cho nhiều môi trường từ trung tâm dữ liệu đến thiết bị di động, nâng cao đáng kể hiệu quả và tính ứng dụng của mô hình AI."
25
29
  },
@@ -5,7 +5,7 @@
5
5
  "agentDefaultMessage": "你好,我是 **{{name}}**,你可以立即与我开始对话,也可以前往 [助手设置]({{url}}) 完善我的信息。",
6
6
  "agentDefaultMessageWithSystemRole": "你好,我是 **{{name}}**,{{systemRole}},让我们开始对话吧!",
7
7
  "agentDefaultMessageWithoutEdit": "你好,我是 **{{name}}**,让我们开始对话吧!",
8
- "agentsAndConversations": "助手与会话",
8
+ "agents": "助手",
9
9
  "artifact": {
10
10
  "generating": "生成中",
11
11
  "thinking": "思考中",
@@ -81,7 +81,7 @@
81
81
  },
82
82
  "regenerate": "重新生成",
83
83
  "roleAndArchive": "角色与记录",
84
- "searchAgentPlaceholder": "搜索助手和对话...",
84
+ "searchAgentPlaceholder": "搜索助手...",
85
85
  "sendPlaceholder": "输入聊天内容...",
86
86
  "sessionGroup": {
87
87
  "config": "分组管理",
@@ -18,7 +18,7 @@
18
18
  "description": "360GPT2 Pro 是 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。"
19
19
  },
20
20
  "4.0Ultra": {
21
- "description": "Spark4.0 Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
21
+ "description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
22
22
  },
23
23
  "Baichuan2-Turbo": {
24
24
  "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。"
@@ -35,6 +35,9 @@
35
35
  "Gryphe/MythoMax-L2-13b": {
36
36
  "description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。"
37
37
  },
38
+ "Max-32k": {
39
+ "description": "Spark Max 32K 配置了大上下文处理能力,更强的上下文理解和逻辑推理能力,支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景"
40
+ },
38
41
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
39
42
  "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。"
40
43
  },
@@ -66,7 +69,7 @@
66
69
  "description": "A 7B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data."
67
70
  },
68
71
  "Pro-128k": {
69
- "description": "Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
72
+ "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
70
73
  },
71
74
  "Qwen/Qwen1.5-110B-Chat": {
72
75
  "description": "Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。"
@@ -372,7 +375,7 @@
372
375
  "description": "Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。"
373
376
  },
374
377
  "generalv3.5": {
375
- "description": "Spark3.5 Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。"
378
+ "description": "Spark Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。"
376
379
  },
377
380
  "glm-4": {
378
381
  "description": "GLM-4 是发布于2024年1月的旧旗舰版本,目前已被更强的 GLM-4-0520 取代。"
@@ -5,7 +5,7 @@
5
5
  "agentDefaultMessage": "你好,我是 **{{name}}**,你可以立即與我開始對話,也可以前往 [助手設定]({{url}}) 完善我的資訊。",
6
6
  "agentDefaultMessageWithSystemRole": "你好,我是 **{{name}}**,{{systemRole}},讓我們開始對話吧!",
7
7
  "agentDefaultMessageWithoutEdit": "你好,我是 **{{name}}**,讓我們開始對話吧!",
8
- "agentsAndConversations": "助理與對話",
8
+ "agents": "助手",
9
9
  "artifact": {
10
10
  "generating": "生成中",
11
11
  "thinking": "思考中",
@@ -81,7 +81,7 @@
81
81
  },
82
82
  "regenerate": "重新生成",
83
83
  "roleAndArchive": "角色與記錄",
84
- "searchAgentPlaceholder": "搜索助手和對話...",
84
+ "searchAgentPlaceholder": "搜尋助手...",
85
85
  "sendPlaceholder": "輸入聊天內容...",
86
86
  "sessionGroup": {
87
87
  "config": "分組管理",
@@ -35,6 +35,9 @@
35
35
  "Gryphe/MythoMax-L2-13b": {
36
36
  "description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。"
37
37
  },
38
+ "Max-32k": {
39
+ "description": "Spark Max 32K 配備了更強大的上下文處理能力,具備更佳的上下文理解和邏輯推理能力,支持32K tokens的文本輸入,適用於長文檔閱讀、私有知識問答等場景"
40
+ },
38
41
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
39
42
  "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度靈活的多模型合併,旨在提供卓越的創造性體驗。"
40
43
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.19.24",
3
+ "version": "1.19.26",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -51,7 +51,7 @@ const Main = memo(() => {
51
51
  <Flexbox align={'center'} gap={4} horizontal>
52
52
  {
53
53
  <ActionIcon
54
- aria-label={t('agentsAndConversations')}
54
+ aria-label={t('agents')}
55
55
  icon={showSessionPanel ? PanelLeftClose : PanelLeftOpen}
56
56
  onClick={() => {
57
57
  updateSystemStatus({
@@ -60,7 +60,7 @@ const Main = memo(() => {
60
60
  });
61
61
  }}
62
62
  size={DESKTOP_HEADER_ICON_SIZE}
63
- title={t('agentsAndConversations')}
63
+ title={t('agents')}
64
64
  />
65
65
  }
66
66
  <Avatar
@@ -8,7 +8,6 @@ const Ai360: ModelProviderCard = {
8
8
  '360GPT2 Pro 是 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。',
9
9
  displayName: '360GPT2 Pro',
10
10
  enabled: true,
11
- functionCall: false,
12
11
  id: '360gpt2-pro',
13
12
  maxOutput: 7000,
14
13
  pricing: {
@@ -22,6 +21,8 @@ const Ai360: ModelProviderCard = {
22
21
  description:
23
22
  '360GPT Pro 作为 360 AI 模型系列的重要成员,以高效的文本处理能力满足多样化的自然语言应用场景,支持长文本理解和多轮对话等功能。',
24
23
  displayName: '360GPT Pro',
24
+ enabled: true,
25
+ functionCall: true,
25
26
  id: '360gpt-pro',
26
27
  maxOutput: 7000,
27
28
  pricing: {
@@ -20,12 +20,14 @@ const StoreInitialization = memo(() => {
20
20
  useTranslation('error');
21
21
 
22
22
  const router = useRouter();
23
- const [isLogin, isSignedIn, useInitUserState, importUrlShareSettings] = useUserStore((s) => [
24
- authSelectors.isLogin(s),
25
- s.isSignedIn,
26
- s.useInitUserState,
27
- s.importUrlShareSettings,
28
- ]);
23
+ const [isLogin, isSignedIn, useInitUserState, importUrlShareSettings, isUserStateInit] =
24
+ useUserStore((s) => [
25
+ authSelectors.isLogin(s),
26
+ s.isSignedIn,
27
+ s.useInitUserState,
28
+ s.importUrlShareSettings,
29
+ s.isUserStateInit,
30
+ ]);
29
31
 
30
32
  const { serverConfig } = useServerConfigStore();
31
33
 
@@ -74,8 +76,10 @@ const StoreInitialization = memo(() => {
74
76
  // Import settings from the url
75
77
  const searchParam = useSearchParams().get(LOBE_URL_IMPORT_NAME);
76
78
  useEffect(() => {
77
- importUrlShareSettings(searchParam);
78
- }, [searchParam]);
79
+ // Why use `usUserStateInit`,
80
+ // see: https://github.com/lobehub/lobe-chat/pull/4072
81
+ if (searchParam && isUserStateInit) importUrlShareSettings(searchParam);
82
+ }, [searchParam, isUserStateInit]);
79
83
 
80
84
  useEffect(() => {
81
85
  if (mobile) {
@@ -3,6 +3,14 @@ import { LobeOpenAICompatibleFactory } from '../utils/openaiCompatibleFactory';
3
3
 
4
4
  export const LobeAi360AI = LobeOpenAICompatibleFactory({
5
5
  baseURL: 'https://ai.360.cn/v1',
6
+ chatCompletion: {
7
+ handlePayload: (payload) => {
8
+ return {
9
+ ...payload,
10
+ stream: !payload.tools,
11
+ } as any;
12
+ },
13
+ },
6
14
  debug: {
7
15
  chatCompletion: () => process.env.DEBUG_AI360_CHAT_COMPLETION === '1',
8
16
  },
@@ -6,7 +6,7 @@ export default {
6
6
  '你好,我是 **{{name}}**,你可以立即与我开始对话,也可以前往 [助手设置]({{url}}) 完善我的信息。',
7
7
  agentDefaultMessageWithSystemRole: '你好,我是 **{{name}}**,{{systemRole}},让我们开始对话吧!',
8
8
  agentDefaultMessageWithoutEdit: '你好,我是 **{{name}}**,让我们开始对话吧!',
9
- agentsAndConversations: '助手与会话',
9
+ agents: '助手',
10
10
  artifact: {
11
11
  generating: '生成中',
12
12
  thinking: '思考中',
@@ -83,7 +83,7 @@ export default {
83
83
  },
84
84
  regenerate: '重新生成',
85
85
  roleAndArchive: '角色与记录',
86
- searchAgentPlaceholder: '搜索助手和对话...',
86
+ searchAgentPlaceholder: '搜索助手...',
87
87
  sendPlaceholder: '输入聊天内容...',
88
88
  sessionGroup: {
89
89
  config: '分组管理',