@lobehub/chat 1.138.1 → 1.138.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (135) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docker-compose/local/docker-compose.yml +1 -1
  4. package/docker-compose/local/grafana/docker-compose.yml +1 -1
  5. package/docker-compose/production/grafana/docker-compose.yml +1 -1
  6. package/locales/ar/chat.json +1 -1
  7. package/locales/ar/common.json +1 -1
  8. package/locales/ar/models.json +35 -8
  9. package/locales/ar/plugin.json +1 -1
  10. package/locales/ar/welcome.json +1 -1
  11. package/locales/bg-BG/chat.json +1 -1
  12. package/locales/bg-BG/common.json +1 -1
  13. package/locales/bg-BG/models.json +35 -8
  14. package/locales/bg-BG/plugin.json +1 -1
  15. package/locales/bg-BG/welcome.json +1 -1
  16. package/locales/de-DE/chat.json +1 -1
  17. package/locales/de-DE/common.json +1 -1
  18. package/locales/de-DE/models.json +35 -8
  19. package/locales/de-DE/plugin.json +1 -1
  20. package/locales/de-DE/welcome.json +1 -1
  21. package/locales/en-US/chat.json +1 -1
  22. package/locales/en-US/common.json +1 -1
  23. package/locales/en-US/models.json +35 -8
  24. package/locales/en-US/plugin.json +1 -1
  25. package/locales/en-US/welcome.json +1 -1
  26. package/locales/es-ES/chat.json +1 -1
  27. package/locales/es-ES/common.json +1 -1
  28. package/locales/es-ES/models.json +35 -8
  29. package/locales/es-ES/plugin.json +1 -1
  30. package/locales/es-ES/welcome.json +1 -1
  31. package/locales/fa-IR/chat.json +1 -1
  32. package/locales/fa-IR/common.json +1 -1
  33. package/locales/fa-IR/models.json +35 -8
  34. package/locales/fa-IR/plugin.json +1 -1
  35. package/locales/fa-IR/welcome.json +1 -1
  36. package/locales/fr-FR/chat.json +1 -1
  37. package/locales/fr-FR/common.json +1 -1
  38. package/locales/fr-FR/models.json +35 -8
  39. package/locales/fr-FR/plugin.json +1 -1
  40. package/locales/fr-FR/welcome.json +1 -1
  41. package/locales/it-IT/chat.json +1 -1
  42. package/locales/it-IT/common.json +1 -1
  43. package/locales/it-IT/models.json +35 -8
  44. package/locales/it-IT/plugin.json +1 -1
  45. package/locales/it-IT/welcome.json +1 -1
  46. package/locales/ja-JP/chat.json +1 -1
  47. package/locales/ja-JP/common.json +1 -1
  48. package/locales/ja-JP/models.json +35 -8
  49. package/locales/ja-JP/plugin.json +1 -1
  50. package/locales/ja-JP/welcome.json +1 -1
  51. package/locales/ko-KR/chat.json +1 -1
  52. package/locales/ko-KR/common.json +1 -1
  53. package/locales/ko-KR/models.json +35 -8
  54. package/locales/ko-KR/plugin.json +1 -1
  55. package/locales/ko-KR/welcome.json +1 -1
  56. package/locales/nl-NL/chat.json +1 -1
  57. package/locales/nl-NL/common.json +1 -1
  58. package/locales/nl-NL/models.json +35 -8
  59. package/locales/nl-NL/plugin.json +1 -1
  60. package/locales/nl-NL/welcome.json +1 -1
  61. package/locales/pl-PL/chat.json +1 -1
  62. package/locales/pl-PL/common.json +1 -1
  63. package/locales/pl-PL/models.json +35 -8
  64. package/locales/pl-PL/plugin.json +1 -1
  65. package/locales/pl-PL/welcome.json +1 -1
  66. package/locales/pt-BR/chat.json +1 -1
  67. package/locales/pt-BR/common.json +1 -1
  68. package/locales/pt-BR/models.json +35 -8
  69. package/locales/pt-BR/plugin.json +1 -1
  70. package/locales/pt-BR/welcome.json +1 -1
  71. package/locales/ru-RU/chat.json +1 -1
  72. package/locales/ru-RU/common.json +1 -1
  73. package/locales/ru-RU/models.json +35 -8
  74. package/locales/ru-RU/plugin.json +1 -1
  75. package/locales/ru-RU/welcome.json +1 -1
  76. package/locales/tr-TR/chat.json +1 -1
  77. package/locales/tr-TR/common.json +1 -1
  78. package/locales/tr-TR/models.json +35 -8
  79. package/locales/tr-TR/plugin.json +1 -1
  80. package/locales/tr-TR/welcome.json +1 -1
  81. package/locales/vi-VN/chat.json +1 -1
  82. package/locales/vi-VN/common.json +1 -1
  83. package/locales/vi-VN/models.json +35 -8
  84. package/locales/vi-VN/plugin.json +1 -1
  85. package/locales/vi-VN/welcome.json +1 -1
  86. package/locales/zh-CN/common.json +1 -1
  87. package/locales/zh-CN/models.json +35 -8
  88. package/locales/zh-CN/plugin.json +1 -1
  89. package/locales/zh-CN/welcome.json +1 -1
  90. package/locales/zh-TW/chat.json +1 -1
  91. package/locales/zh-TW/common.json +1 -1
  92. package/locales/zh-TW/models.json +35 -8
  93. package/locales/zh-TW/plugin.json +1 -1
  94. package/locales/zh-TW/welcome.json +1 -1
  95. package/package.json +1 -1
  96. package/packages/const/src/branding.ts +2 -2
  97. package/packages/const/src/index.ts +1 -0
  98. package/packages/const/src/version.ts +1 -1
  99. package/packages/database/src/models/topic.ts +0 -1
  100. package/packages/database/src/repositories/aiInfra/index.ts +19 -13
  101. package/packages/obervability-otel/package.json +4 -4
  102. package/packages/prompts/CLAUDE.md +289 -43
  103. package/packages/prompts/package.json +2 -1
  104. package/packages/prompts/promptfoo/supervisor/productive/eval.yaml +51 -0
  105. package/packages/prompts/promptfoo/supervisor/productive/prompt.ts +18 -0
  106. package/packages/prompts/promptfoo/supervisor/productive/tests/basic-case.ts +54 -0
  107. package/packages/prompts/promptfoo/supervisor/productive/tests/role.ts +58 -0
  108. package/packages/prompts/promptfoo/supervisor/productive/tools.json +80 -0
  109. package/packages/prompts/src/contexts/index.ts +1 -0
  110. package/packages/prompts/src/contexts/supervisor/index.ts +2 -0
  111. package/packages/prompts/src/contexts/supervisor/makeDecision.ts +68 -0
  112. package/packages/prompts/src/contexts/supervisor/tools.ts +102 -0
  113. package/packages/prompts/src/index.ts +1 -0
  114. package/packages/types/src/aiChat.ts +9 -3
  115. package/src/app/[variants]/(auth)/next-auth/signin/AuthSignInBox.tsx +4 -4
  116. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{OpeningQuestions.tsx → AgentWelcome/OpeningQuestions.tsx} +2 -2
  117. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/index.tsx +38 -17
  118. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +2 -2
  119. package/src/app/[variants]/(main)/discover/(detail)/assistant/[...slugs]/page.tsx +1 -1
  120. package/src/app/[variants]/(main)/discover/(detail)/mcp/[slug]/page.tsx +1 -1
  121. package/src/config/modelProviders/lobehub.ts +1 -1
  122. package/src/locales/default/common.ts +1 -1
  123. package/src/locales/default/plugin.ts +1 -1
  124. package/src/locales/default/welcome.ts +1 -1
  125. package/src/server/ld.ts +1 -1
  126. package/src/server/routers/lambda/aiChat.ts +1 -1
  127. package/src/server/services/aiChat/index.test.ts +1 -1
  128. package/src/server/services/aiChat/index.ts +1 -1
  129. package/src/services/topic/client.ts +1 -1
  130. package/src/store/chat/slices/message/supervisor.test.ts +12 -5
  131. package/src/store/chat/slices/message/supervisor.ts +16 -129
  132. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/AgentsSuggest.tsx +0 -114
  133. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/QuestionSuggest.tsx +0 -104
  134. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +0 -65
  135. /package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/AddButton.tsx +0 -0
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet cung cấp sự cân bằng lý tưởng giữa trí thông minh và tốc độ cho khối lượng công việc doanh nghiệp. Nó cung cấp hiệu suất tối đa với mức giá thấp hơn, đáng tin cậy và phù hợp cho triển khai quy mô lớn."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ như chớp và khả năng tư duy mở rộng."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 là mô hình mạnh mẽ nhất mới nhất của Anthropic dành cho xử lý các nhiệm vụ phức tạp cao. Nó thể hiện xuất sắc về hiệu suất, trí tuệ, sự mượt mà và khả năng hiểu biết."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash là mô hình suy nghĩ sâu đa phương thức với tốc độ suy luận tối ưu, TPOT chỉ cần 10ms; đồng thời hỗ trợ hiểu văn bản và hình ảnh, khả năng hiểu văn bản vượt trội so với thế hệ lite trước, khả năng hiểu hình ảnh sánh ngang với các mô hình pro của đối thủ. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite là mô hình tư duy sâu đa phương thức hoàn toàn mới, hỗ trợ điều chỉnh mức độ suy luận (reasoning effort) với bốn chế độ: Tối thiểu, Thấp, Trung bình và Cao. Đây là lựa chọn tối ưu cho các tác vụ phổ biến với hiệu suất vượt trội và cửa sổ ngữ cảnh lên đến 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Mô hình Doubao-Seed-1.6-thinking có khả năng suy nghĩ được tăng cường đáng kể, so với Doubao-1.5-thinking-pro, nâng cao hơn nữa các năng lực cơ bản như lập trình, toán học, suy luận logic, đồng thời hỗ trợ hiểu hình ảnh. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview có khả năng suy luận phức tạp mạnh mẽ, thể hiện xuất sắc trong các lĩnh vực suy luận logic, toán học, lập trình."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "Mô hình hàng đầu mới nhất của Zhipu - GLM-4.6 (355B) vượt trội hoàn toàn so với thế hệ trước về mã hóa nâng cao, xử lý văn bản dài, suy luận và khả năng tác nhân thông minh. Đặc biệt, năng lực lập trình đã đạt đến mức tương đương với Claude Sonnet 4, trở thành mô hình Coding hàng đầu tại Trung Quốc."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash cung cấp các tính năng thế hệ tiếp theo và cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small là lựa chọn lý tưởng cho các nhiệm vụ tạo mã, gỡ lỗi và tái cấu trúc với độ trễ tối thiểu."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T là mô hình non-thinking hàng đầu đầu tiên trong dòng sản phẩm \"Linh 2.0\", sở hữu tổng cộng 1 nghìn tỷ tham số và khoảng 50 tỷ tham số hoạt động cho mỗi token. Được xây dựng trên kiến trúc Linh 2.0, Ling-1T hướng đến việc vượt qua giới hạn của suy luận hiệu quả và nhận thức có thể mở rộng. Ling-1T-base được huấn luyện trên hơn 20 nghìn tỷ token chất lượng cao, đòi hỏi suy luận chuyên sâu."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 là mô hình thứ ba trong dòng kiến trúc Ling 2.0 do đội ngũ Bailing của Ant Group phát hành. Đây là mô hình chuyên gia hỗn hợp (MoE) với tổng số tham số lên đến 100 tỷ, nhưng mỗi token chỉ kích hoạt 6.1 tỷ tham số (không bao gồm embedding là 4.8 tỷ). Là mô hình cấu hình nhẹ, Ling-flash-2.0 thể hiện hiệu năng ngang hoặc vượt trội so với các mô hình dày đặc (Dense) 40 tỷ tham số và các mô hình MoE quy mô lớn hơn trong nhiều bài đánh giá uy tín. Mô hình này nhằm khám phá con đường hiệu quả trong bối cảnh quan niệm “mô hình lớn đồng nghĩa với tham số lớn” thông qua thiết kế kiến trúc và chiến lược huấn luyện tối ưu."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 là mô hình ngôn ngữ lớn hiệu năng cao kích thước nhỏ dựa trên kiến trúc MoE. Nó có tổng số 16 tỷ tham số, nhưng mỗi token chỉ kích hoạt 1.4 tỷ tham số (không bao gồm embedding là 789 triệu), từ đó đạt tốc độ sinh nhanh vượt trội. Nhờ thiết kế MoE hiệu quả và dữ liệu huấn luyện quy mô lớn, chất lượng cao, mặc dù tham số kích hoạt chỉ 1.4 tỷ, Ling-mini-2.0 vẫn thể hiện hiệu năng hàng đầu trong các tác vụ hạ nguồn, có thể so sánh với các mô hình dense dưới 10 tỷ tham số và các mô hình MoE quy mô lớn hơn."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T là mô hình tư duy mã nguồn mở quy mô nghìn tỷ tham số do nhóm Bailing phát triển. Dựa trên kiến trúc Linh 2.0 và mô hình nền tảng Ling-1T-base, mô hình này có tổng cộng 1 nghìn tỷ tham số và 50 tỷ tham số hoạt động, hỗ trợ cửa sổ ngữ cảnh lên đến 128K. Mô hình được tối ưu hóa thông qua học tăng cường với phần thưởng có thể xác minh ở quy mô lớn."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 là mô hình tư duy hiệu năng cao được tối ưu sâu dựa trên Ling-flash-2.0-base. Nó sử dụng kiến trúc chuyên gia hỗn hợp (MoE) với tổng số 100 tỷ tham số, nhưng mỗi lần suy luận chỉ kích hoạt 6.1 tỷ tham số. Mô hình này áp dụng thuật toán độc quyền icepop, giải quyết vấn đề không ổn định trong huấn luyện tăng cường (RL) của các mô hình MoE lớn, giúp năng lực suy luận phức tạp được cải thiện liên tục trong quá trình huấn luyện dài hạn. Ring-flash-2.0 đạt bước đột phá đáng kể trong các bài kiểm tra chuẩn khó như thi toán, tạo mã và suy luận logic, hiệu năng không chỉ vượt các mô hình dense hàng đầu dưới 40 tỷ tham số mà còn có thể sánh ngang các mô hình MoE mã nguồn mở quy mô lớn và các mô hình tư duy hiệu năng cao đóng nguồn. Mặc dù tập trung vào suy luận phức tạp, mô hình cũng thể hiện tốt trong các tác vụ sáng tạo viết lách. Ngoài ra, nhờ thiết kế kiến trúc hiệu quả, Ring-flash-2.0 vừa cung cấp hiệu năng mạnh mẽ vừa đạt tốc độ suy luận cao, giảm đáng kể chi phí triển khai mô hình tư duy trong các kịch bản tải cao."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Mô hình Llama 3.3 được tối ưu hóa cho các tình huống đối thoại, và đã vượt qua nhiều mô hình trò chuyện nguồn mở hiện có trong các bài kiểm tra chuẩn ngành phổ biến."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: Mô hình hiệu suất cao thuộc dòng Llama, phù hợp với các nhiệm vụ suy luận nâng cao, giải quyết vấn đề phức tạp và tuân theo chỉ dẫn."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: Mô hình hiệu suất cao thuộc dòng Llama, lý tưởng cho các tình huống yêu cầu thông lượng cao và độ trễ thấp."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 là một mô hình lớn thế hệ mới với khả năng vượt trội, đạt được trình độ hàng đầu trong nhiều khả năng cốt lõi như suy luận, tổng quát, đại lý và đa ngôn ngữ, đồng thời hỗ trợ chuyển đổi chế độ suy nghĩ."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Phiên bản mã nguồn mở của mô hình mã hóa Tongyi Qianwen. Mô hình qwen3-coder-30b-a3b-instruct mới nhất được phát triển dựa trên Qwen3, có khả năng hoạt động như một Tác nhân Lập trình mạnh mẽ, thành thạo trong việc gọi công cụ và tương tác môi trường, hỗ trợ lập trình tự động với năng lực mã hóa xuất sắc và khả năng tổng quát cao."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Phiên bản mã nguồn mở của mô hình mã hóa Tongyi Qianwen. Mô hình qwen3-coder-480b-a35b-instruct mới nhất dựa trên Qwen3, có khả năng Coding Agent mạnh mẽ, thành thạo gọi công cụ và tương tác môi trường, có thể lập trình tự chủ, vừa xuất sắc về mã hóa vừa có năng lực chung."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Mô hình mã nguồn mở thế hệ mới có chế độ suy nghĩ dựa trên Qwen3, so với phiên bản trước (Thông Nghĩa Thiên Vấn 3-235B-A22B-Thinking-2507) có khả năng tuân thủ chỉ dẫn được nâng cao, và các phản hồi tóm tắt của mô hình trở nên ngắn gọn hơn."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Mô hình Qwen-Omni có thể tiếp nhận đầu vào kết hợp từ nhiều phương thức như văn bản, hình ảnh, âm thanh và video, và tạo phản hồi dưới dạng văn bản hoặc giọng nói. Mô hình cung cấp nhiều giọng nói nhân hóa, hỗ trợ đầu ra bằng nhiều ngôn ngữ và phương ngữ, phù hợp với các ứng dụng như sáng tác văn bản, nhận diện hình ảnh và trợ lý giọng nói."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct hình đa phương thức do Tongyi Qianwen phát triển, hỗ trợ hiểu suy luận hình ảnh."
2943
+ "description": "Qwen3 VL 235B A22B chế độ không tư duy (Instruct), phù hợp với các tình huống chỉ dẫn không yêu cầu suy luận, vẫn duy trì khả năng hiểu thị giác mạnh mẽ."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking hình suy luận đa phương thức do Tongyi Qianwen phát triển, hỗ trợ hiểu suy luận hình ảnh."
2946
+ "description": "Qwen3 VL 235B A22B chế độ duy (phiên bản mã nguồn mở), cung cấp khả năng suy luận văn bản + hình ảnh hàng đầu cho các tình huống yêu cầu suy luận phức tạp và hiểu video dài."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B chế độ không tư duy (Instruct), hướng đến các tình huống theo dõi chỉ dẫn thông thường, duy trì khả năng hiểu và tạo nội dung đa phương thức ở mức cao."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (phiên bản mã nguồn mở) cung cấp khả năng hiểu hình ảnh và tạo văn bản, hỗ trợ tương tác với tác nhân thông minh, mã hóa thị giác, nhận thức không gian, hiểu video dài và tư duy sâu, đồng thời có khả năng nhận diện văn bản và hỗ trợ đa ngôn ngữ mạnh mẽ trong các tình huống phức tạp."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B chế độ không tư duy (Instruct), phù hợp với các tác vụ tạo và nhận diện đa phương thức thông thường."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B chế độ tư duy, hướng đến các tình huống suy luận và tương tác đa phương thức nhẹ, vẫn giữ được khả năng hiểu ngữ cảnh dài."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash: phiên bản suy luận tốc độ cao và nhẹ, phù hợp với các tình huống yêu cầu độ trễ thấp hoặc xử lý số lượng lớn yêu cầu."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL là mô hình sinh văn bản có khả năng hiểu thị giác (hình ảnh), không chỉ thực hiện OCR (nhận dạng chữ trong ảnh) mà còn có thể tóm tắt và suy luận thêm, ví dụ như trích xuất thuộc tính từ ảnh sản phẩm, giải bài tập dựa trên hình ảnh minh họa."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Đã cài đặt",
463
463
  "mcp": "Plugin MCP",
464
- "old": "Plugin LobeChat"
464
+ "old": "Plugin LobeHub"
465
465
  },
466
466
  "title": "Cửa hàng plugin"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Tìm hiểu thêm",
362
- "title": "Mọi người đều đặt câu hỏi: "
362
+ "title": "Hãy thử hỏi:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Chào buổi chiều",
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "批量删除",
32
32
  "blog": "产品博客",
33
33
  "branching": "创建子话题",
34
- "branchingDisable": "「子话题」功能在当前模式下不可用,如需该功能,请切换到 Postgres/Pglite DB 模式或使用 LobeChat Cloud",
34
+ "branchingDisable": "「子话题」功能在当前模式下不可用,如需该功能,请切换到 Postgres/Pglite DB 模式或使用 LobeHub Cloud",
35
35
  "branchingRequiresSavedTopic": "当前话题未保存,保存后才可以使用子话题能力",
36
36
  "cancel": "取消",
37
37
  "changelog": "更新日志",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。"
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 是 Anthropic 最快且最智能的 Haiku 模型,具有闪电般的速度和扩展思考能力。"
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 是 Anthropic 最新的用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash推理速度极致的多模态深度思考模型,TPOT仅需10ms; 同时支持文本和视觉理解,文本理解能力超过上一代lite,视觉理解比肩友商pro系列模型。支持 256k 上下文窗口,输出长度支持最大 16k tokens。"
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite 全新多模态深度思考模型,支持思考程度可调节(reasoning effort),即 Minimal、Low、Medium、High 四种模式,更强性价比,常见任务的最佳选择,上下文窗口至256k。"
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Doubao-Seed-1.6-thinking模型思考能力大幅强化, 对比Doubao-1.5-thinking-pro,在Coding、Math、 逻辑推理等基础能力上进一步提升, 支持视觉理解。 支持 256k 上下文窗口,输出长度支持最大 16k tokens。"
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview具备强大的复杂推理能力,在逻辑推理、数学、编程等领域表现优异。"
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "智谱最新旗舰模型 GLM-4.6 (355B) 在高级编码、长文本处理、推理与智能体能力上全面超越前代,尤其在编程能力上对齐 Claude Sonnet 4,成为国内顶尖的 Coding 模型。"
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash 提供下一代功能和改进的功能,包括卓越的速度、内置工具使用、多模态生成和 100 万 token 的上下文窗口。"
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small 是代码生成、调试和重构任务的理想选择,具有最小延迟。"
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T 是\"灵 2.0\"系列的首款旗舰级 non-thinking 模型,拥有 1 万亿总参数和每 token 约 500 亿个活动参数。基于灵 2.0 架构构建,Ling-1T 旨在突破高效推理和可扩展认知的极限。Ling-1T-base 在超过 20 万亿个高质量、推理密集的 token 上进行训练。"
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 是由蚂蚁集团百灵团队发布的 Ling 2.0 架构系列的第三款模型。它是一款混合专家(MoE)模型,总参数规模达到 1000 亿,但每个 token 仅激活 61 亿参数(非词向量激活 48 亿)。 作为一个轻量级配置的模型,Ling-flash-2.0 在多个权威评测中展现出媲美甚至超越 400 亿级别稠密(Dense)模型及更大规模 MoE 模型的性能。该模型旨在通过极致的架构设计与训练策略,在“大模型等于大参数”的共识下探索高效能的路径。"
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 是一款基于 MoE 架构的小尺寸高性能大语言模型。它拥有 16B 总参数,但每个 token 仅激活 1.4B(non-embedding 789M),从而实现了极高的生成速度。得益于高效的 MoE 设计与大规模高质量训练数据,尽管激活参数仅为 1.4B,Ling-mini-2.0 依然在下游任务中展现出可媲美 10B 以下 dense LLM 及更大规模 MoE 模型的顶尖性能。"
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T 是一款由百灵(Bailing)团队发布的万亿参数规模的开源思想模型。它基于 Ling 2.0 架构和 Ling-1T-base 基础模型训练,总参数量达 1 万亿,激活参数量为 500 亿,并支持高达 128K 的上下文窗口。该模型通过大规模可验证奖励强化学习进行优化。"
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 是一个基于 Ling-flash-2.0-base 深度优化的高性能思考模型。它采用混合专家(MoE)架构,总参数量为 100B,但在每次推理中仅激活 6.1B 参数。该模型通过独创的 icepop 算法,解决了 MoE 大模型在强化学习(RL)训练中的不稳定性难题,使其复杂推理能力在长周期训练中得以持续提升。Ring-flash-2.0 在数学竞赛、代码生成和逻辑推理等多个高难度基准测试中取得了显著突破,其性能不仅超越了 40B 参数规模以下的顶尖稠密模型,还能媲美更大规模的开源 MoE 模型及闭源的高性能思考模型。尽管该模型专注于复杂推理,它在创意写作等任务上也表现出色。此外,得益于其高效的架构设计,Ring-flash-2.0 在提供强大性能的同时,也实现了高速推理,显著降低了思考模型在高并发场景下的部署成本。"
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Llama 3.3 指令微调模型针对对话场景进行了优化,在常见的行业基准测试中,超越了许多现有的开源聊天模型。"
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick:高性能的 Llama 系列模型,适合高级推理、复杂问题解决和指令跟随任务。"
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout:高性能的 Llama 系列模型,适合需高吞吐与低延迟的场景。"
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "通义千问代码模型开源版。最新的 qwen3-coder-30b-a3b-instruct 是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。"
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "通义千问代码模型开源版。最新的 qwen3-coder-480b-a35b-instruct 是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。"
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "基于 Qwen3 的新一代思考模式开源模型,相较上一版本(通义千问3-235B-A22B-Thinking-2507)指令遵循能力有提升、模型总结回复更加精简。"
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Qwen-Omni 模型能够接收文本、图片、音频、视频等多种模态的组合输入,并生成文本或语音形式的回复, 提供多种拟人音色,支持多语言和方言的语音输出,可应用于文本创作、视觉识别、语音助手等场景。"
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct 是通义千问推出的多模态模型,支持视觉理解和推理。"
2943
+ "description": "Qwen3 VL 235B A22B 非思考模式(Instruct),适用于非思考指令场景,保持强大的视觉理解能力。"
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking 是通义千问推出的多模态推理模型,支持视觉理解和推理。"
2946
+ "description": "Qwen3 VL 235B A22B 思考模式(开源版),针对高难度强推理与长视频理解场景,提供顶尖的视觉+文本推理能力。"
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B 非思考模式(Instruct),面向普通指令跟随场景,保持较高的多模态理解与生成能力。"
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL(开源版)提供视觉理解与文本生成能力,支持智能体交互、视觉编码、空间感知、长视频理解与深度思考,并在复杂场景下具备更强的文字识别与多语言支持。"
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B 非思考模式(Instruct),适合常规多模态生成与识别任务。"
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B 思考模式,面向轻量级多模态推理与交互场景,保留长上下文理解能力。"
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash:轻量化高速推理版本,适合对延迟敏感或大批量请求场景。"
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "通义千问VL是具有视觉(图像)理解能力的文本生成模型,不仅能进行OCR(图片文字识别),还能进一步总结和推理,例如从商品照片中提取属性,根据习题图进行解题等。"
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "已安装",
463
463
  "mcp": "MCP 插件",
464
- "old": "LobeChat 插件"
464
+ "old": "LobeHub 插件"
465
465
  },
466
466
  "title": "插件商店"
467
467
  },
@@ -364,7 +364,7 @@
364
364
  },
365
365
  "questions": {
366
366
  "moreBtn": "了解更多",
367
- "title": "大家都在问:"
367
+ "title": "试着问问:"
368
368
  },
369
369
  "welcome": {
370
370
  "afternoon": "下午好",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "你",
398
398
  "zenMode": "專注模式"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "批次刪除",
32
32
  "blog": "產品部落格",
33
33
  "branching": "建立子主題",
34
- "branchingDisable": "「子主題」功能僅在伺服器端版本可用,如需該功能,請切換到伺服器端部署模式或使用 LobeChat Cloud",
34
+ "branchingDisable": "「子話題」功能在目前模式下無法使用,如需使用此功能,請切換至 Postgres/Pglite 資料庫模式或使用 LobeHub 雲端服務",
35
35
  "branchingRequiresSavedTopic": "當前話題未保存,保存後才可以使用子話題功能",
36
36
  "cancel": "取消",
37
37
  "changelog": "變更日誌",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet 在智能和速度方面為企業工作負載提供了理想的平衡。它以更低的價格提供最大效用,可靠且適合大規模部署。"
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 是 Anthropic 最快速且最智慧的 Haiku 模型,具備閃電般的速度與擴展思考能力。"
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 是 Anthropic 最新的用於處理高度複雜任務的最強大模型。它在性能、智慧、流暢性和理解力方面表現卓越。"
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash 推理速度極致的多模態深度思考模型,TPOT 僅需 10ms;同時支援文本和視覺理解,文本理解能力超越上一代 lite,視覺理解媲美友商 pro 系列模型。支援 256k 上下文視窗,輸出長度支援最大 16k tokens。"
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite 全新多模態深度思考模型,支援可調整的思考程度(reasoning effort),包括 Minimal、Low、Medium、High 四種模式,性價比更高,是常見任務的最佳選擇,支援長達 256k 的上下文視窗。"
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Doubao-Seed-1.6-thinking 模型思考能力大幅強化,相較 Doubao-1.5-thinking-pro,在 Coding、Math、邏輯推理等基礎能力上進一步提升,支援視覺理解。支援 256k 上下文視窗,輸出長度支援最大 16k tokens。"
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview具備強大的複雜推理能力,在邏輯推理、數學、程式設計等領域表現優異。"
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "智譜最新旗艦模型 GLM-4.6 (355B) 在高階編碼、長文本處理、推理與智慧體能力上全面超越前代,特別是在程式設計能力上對齊 Claude Sonnet 4,成為國內頂尖的 Coding 模型。"
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash 提供下一代功能和改進的功能,包括卓越的速度、內建工具使用、多模態生成和 100 萬 token 的上下文視窗。"
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small 是程式碼生成、除錯和重構任務的理想選擇,具有最小延遲。"
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T 是「靈 2.0」系列的首款旗艦級 non-thinking 模型,擁有 1 兆總參數與每個 token 約 500 億個活躍參數。基於靈 2.0 架構打造,Ling-1T 旨在突破高效推理與可擴展認知的極限。Ling-1T-base 在超過 20 兆個高品質、推理密集的 token 上進行訓練。"
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 是由螞蟻集團百靈團隊發布的 Ling 2.0 架構系列的第三款模型。它是一款混合專家(MoE)模型,總參數規模達到 1000 億,但每個 token 僅啟動 61 億參數(非詞向量啟動 48 億)。作為一個輕量級配置的模型,Ling-flash-2.0 在多個權威評測中展現出媲美甚至超越 400 億級別稠密(Dense)模型及更大規模 MoE 模型的性能。該模型旨在透過極致的架構設計與訓練策略,在「大模型等於大參數」的共識下探索高效能的路徑。"
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 是一款基於 MoE 架構的小尺寸高性能大型語言模型。它擁有 16B 總參數,但每個 token 僅啟動 1.4B(non-embedding 789M),從而實現了極高的生成速度。得益於高效的 MoE 設計與大規模高品質訓練資料,儘管啟動參數僅為 1.4B,Ling-mini-2.0 依然在下游任務中展現出可媲美 10B 以下 dense LLM 及更大規模 MoE 模型的頂尖性能。"
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T 是由百靈(Bailing)團隊推出的萬億參數規模開源思想模型。該模型基於靈 2.0 架構與 Ling-1T-base 基礎模型訓練,總參數達 1 兆,活躍參數為 500 億,並支援高達 128K 的上下文視窗。透過大規模可驗證獎勵強化學習進行優化。"
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 是一個基於 Ling-flash-2.0-base 深度優化的高性能思考模型。它採用混合專家(MoE)架構,總參數量為 100B,但在每次推理中僅啟動 6.1B 參數。該模型透過獨創的 icepop 演算法,解決了 MoE 大模型在強化學習(RL)訓練中的不穩定性難題,使其複雜推理能力在長週期訓練中得以持續提升。Ring-flash-2.0 在數學競賽、程式碼生成和邏輯推理等多個高難度基準測試中取得了顯著突破,其性能不僅超越了 40B 參數規模以下的頂尖稠密模型,還能媲美更大規模的開源 MoE 模型及閉源的高性能思考模型。儘管該模型專注於複雜推理,它在創意寫作等任務上也表現出色。此外,得益於其高效的架構設計,Ring-flash-2.0 在提供強大性能的同時,也實現了高速推理,顯著降低了思考模型在高併發場景下的部署成本。"
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Llama 3.3 指令微調模型針對對話場景進行了優化,在常見的行業基準測試中,超越了許多現有的開源聊天模型。"
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick:高效能的 Llama 系列模型,適合高階推理、複雜問題解決與指令跟隨任務。"
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout:高效能的 Llama 系列模型,適用於需高吞吐量與低延遲的場景。"
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3是一款能力大幅提升的新一代通義千問大模型,在推理、通用、Agent和多語言等多個核心能力上均達到業界領先水平,並支持思考模式切換。"
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "通義千問程式碼模型開源版。最新的 qwen3-coder-30b-a3b-instruct 是基於 Qwen3 的程式碼生成模型,具備強大的 Coding Agent 能力,擅長工具調用與環境互動,能夠實現自主編程,程式能力卓越,同時兼具通用能力。"
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "通義千問程式碼模型開源版。最新的 qwen3-coder-480b-a35b-instruct 是基於 Qwen3 的程式碼生成模型,具有強大的 Coding Agent 能力,擅長工具調用和環境互動,能夠實現自主程式設計、程式碼能力卓越的同時兼具通用能力。"
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "基於 Qwen3 的新一代思考模式開源模型,相較上一版本(通義千問3-235B-A22B-Thinking-2507)指令遵循能力有提升、模型總結回覆更加精簡。"
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Qwen-Omni 模型能夠接收文字、圖片、音訊、影片等多種模態的組合輸入,並生成文字或語音形式的回應,提供多種擬人化音色,支援多語言與方言語音輸出,適用於文字創作、視覺辨識、語音助理等場景。"
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct 是通義千問推出的多模態模型,支援視覺理解與推理。"
2943
+ "description": "Qwen3 VL 235B A22B 非思考模式(Instruct),適用於非思考指令場景,維持強大的視覺理解能力。"
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking 是通義千問推出的多模態推理模型,支援視覺理解與推理。"
2946
+ "description": "Qwen3 VL 235B A22B 思考模式(開源版),針對高難度強推理與長影片理解場景,提供頂尖的視覺與文字推理能力。"
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B 非思考模式(Instruct),面向一般指令跟隨場景,維持優異的多模態理解與生成能力。"
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL(開源版)提供視覺理解與文字生成能力,支援智慧體互動、視覺編碼、空間感知、長影片理解與深度思考,並在複雜場景下具備更強的文字辨識與多語言支援。"
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B 非思考模式(Instruct),適合常規多模態生成與辨識任務。"
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B 思考模式,面向輕量級多模態推理與互動場景,保留長上下文理解能力。"
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash:輕量化高速推理版本,適用於對延遲敏感或大量請求的場景。"
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "通義千問VL是具有視覺(圖像)理解能力的文本生成模型,不僅能進行OCR(圖片文字識別),還能進一步總結和推理,例如從商品照片中提取屬性,根據習題圖進行解題等。"
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "已安裝",
463
463
  "mcp": "MCP 插件",
464
- "old": "LobeChat 插件"
464
+ "old": "LobeHub 外掛"
465
465
  },
466
466
  "title": "插件商店"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "了解更多",
362
- "title": "大家都在問:"
362
+ "title": "試著問問:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "下午好",
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.138.1",
3
+ "version": "1.138.3",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -2,9 +2,9 @@
2
2
  // if you want to use it in the commercial usage
3
3
  // please contact us for more information: hello@lobehub.com
4
4
 
5
- export const LOBE_CHAT_CLOUD = 'LobeChat Cloud';
5
+ export const LOBE_CHAT_CLOUD = 'LobeHub Cloud';
6
6
 
7
- export const BRANDING_NAME = 'LobeChat';
7
+ export const BRANDING_NAME = 'LobeHub';
8
8
  export const BRANDING_LOGO_URL = '';
9
9
 
10
10
  export const ORG_NAME = 'LobeHub';
@@ -11,5 +11,6 @@ export * from './plugin';
11
11
  export * from './session';
12
12
  export * from './settings';
13
13
  export * from './trace';
14
+ export * from './url';
14
15
  export * from './user';
15
16
  export * from './version';
@@ -12,6 +12,6 @@ export const isDesktop = process.env.NEXT_PUBLIC_IS_DESKTOP_APP === '1';
12
12
  export const isDeprecatedEdition = !isServerMode && !isUsePgliteDB;
13
13
 
14
14
  // @ts-ignore
15
- export const isCustomBranding = BRANDING_NAME !== 'LobeChat';
15
+ export const isCustomBranding = BRANDING_NAME !== 'LobeHub';
16
16
  // @ts-ignore
17
17
  export const isCustomORG = ORG_NAME !== 'LobeHub';
@@ -20,7 +20,6 @@ interface QueryTopicParams {
20
20
  containerId?: string | null; // sessionId or groupId
21
21
  current?: number;
22
22
  pageSize?: number;
23
- sessionId?: string | null;
24
23
  }
25
24
 
26
25
  export class TopicModel {
@@ -86,8 +86,8 @@ const inferProviderSearchDefaults = (
86
86
  const injectSearchSettings = (providerId: string, item: any) => {
87
87
  const abilities = item?.abilities || {};
88
88
 
89
- // 模型未开启搜索能力:移除 settings 中的 search 相关字段,确保 UI 不显示启用模型内置搜索
90
- if (abilities.search !== true) {
89
+ // 模型显式关闭搜索能力:移除 settings 中的 search 相关字段,确保 UI 不显示启用模型内置搜索
90
+ if (abilities.search === false) {
91
91
  if (item?.settings?.searchImpl || item?.settings?.searchProvider) {
92
92
  const next = { ...item } as any;
93
93
  if (next.settings) {
@@ -99,19 +99,25 @@ const injectSearchSettings = (providerId: string, item: any) => {
99
99
  return item;
100
100
  }
101
101
 
102
- // 内置(本地)模型如果已经带了任一字段,直接保留,不覆盖
103
- if (item?.settings?.searchImpl || item?.settings?.searchProvider) return item;
102
+ // 模型显式开启搜索能力:添加 settings 中的 search 相关字段
103
+ else if (abilities.search === true) {
104
+ // 内置(本地)模型如果已经带了任一字段,直接保留,不覆盖
105
+ if (item?.settings?.searchImpl || item?.settings?.searchProvider) return item;
104
106
 
105
- // 否则按 providerId + modelId
106
- const searchSettings = inferProviderSearchDefaults(providerId, item.id);
107
+ // 否则按 providerId + modelId
108
+ const searchSettings = inferProviderSearchDefaults(providerId, item.id);
107
109
 
108
- return {
109
- ...item,
110
- settings: {
111
- ...item.settings,
112
- ...searchSettings,
113
- },
114
- };
110
+ return {
111
+ ...item,
112
+ settings: {
113
+ ...item.settings,
114
+ ...searchSettings,
115
+ },
116
+ };
117
+ }
118
+
119
+ // 兼容老版本中数据库没有存储 abilities.search 字段的情况
120
+ return item;
115
121
  };
116
122
 
117
123
  export class AiInfraRepos {
@@ -7,12 +7,12 @@
7
7
  },
8
8
  "dependencies": {
9
9
  "@opentelemetry/api": "^1.9.0",
10
- "@opentelemetry/auto-instrumentations-node": "^0.64.1",
11
- "@opentelemetry/exporter-metrics-otlp-http": "^0.205.0",
12
- "@opentelemetry/exporter-trace-otlp-http": "^0.205.0",
10
+ "@opentelemetry/auto-instrumentations-node": "^0.65.0",
11
+ "@opentelemetry/exporter-metrics-otlp-http": "^0.206.0",
12
+ "@opentelemetry/exporter-trace-otlp-http": "^0.206.0",
13
13
  "@opentelemetry/instrumentation": "^0.205.0",
14
14
  "@opentelemetry/instrumentation-http": "^0.205.0",
15
- "@opentelemetry/instrumentation-pg": "^0.56.0",
15
+ "@opentelemetry/instrumentation-pg": "^0.59.0",
16
16
  "@opentelemetry/resources": "^2.0.1",
17
17
  "@opentelemetry/sdk-metrics": "^2.0.1",
18
18
  "@opentelemetry/sdk-node": "^0.205.0",