@lobehub/chat 1.33.5 → 1.34.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (205) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +7 -0
  4. package/locales/ar/common.json +2 -0
  5. package/locales/ar/models.json +24 -0
  6. package/locales/ar/setting.json +5 -0
  7. package/locales/ar/thread.json +5 -0
  8. package/locales/bg-BG/chat.json +7 -0
  9. package/locales/bg-BG/common.json +2 -0
  10. package/locales/bg-BG/models.json +24 -0
  11. package/locales/bg-BG/setting.json +5 -0
  12. package/locales/bg-BG/thread.json +5 -0
  13. package/locales/de-DE/chat.json +7 -0
  14. package/locales/de-DE/common.json +2 -0
  15. package/locales/de-DE/models.json +24 -0
  16. package/locales/de-DE/setting.json +5 -0
  17. package/locales/de-DE/thread.json +5 -0
  18. package/locales/en-US/chat.json +7 -0
  19. package/locales/en-US/common.json +2 -0
  20. package/locales/en-US/models.json +24 -0
  21. package/locales/en-US/setting.json +5 -0
  22. package/locales/en-US/thread.json +5 -0
  23. package/locales/es-ES/chat.json +7 -0
  24. package/locales/es-ES/common.json +2 -0
  25. package/locales/es-ES/models.json +24 -0
  26. package/locales/es-ES/setting.json +5 -0
  27. package/locales/es-ES/thread.json +5 -0
  28. package/locales/fa-IR/chat.json +7 -0
  29. package/locales/fa-IR/common.json +2 -0
  30. package/locales/fa-IR/models.json +24 -0
  31. package/locales/fa-IR/setting.json +5 -0
  32. package/locales/fa-IR/thread.json +5 -0
  33. package/locales/fr-FR/chat.json +7 -0
  34. package/locales/fr-FR/common.json +2 -0
  35. package/locales/fr-FR/models.json +24 -0
  36. package/locales/fr-FR/setting.json +5 -0
  37. package/locales/fr-FR/thread.json +5 -0
  38. package/locales/it-IT/chat.json +7 -0
  39. package/locales/it-IT/common.json +2 -0
  40. package/locales/it-IT/models.json +24 -0
  41. package/locales/it-IT/setting.json +5 -0
  42. package/locales/it-IT/thread.json +5 -0
  43. package/locales/ja-JP/chat.json +7 -0
  44. package/locales/ja-JP/common.json +2 -0
  45. package/locales/ja-JP/models.json +24 -0
  46. package/locales/ja-JP/setting.json +5 -0
  47. package/locales/ja-JP/thread.json +5 -0
  48. package/locales/ko-KR/chat.json +7 -0
  49. package/locales/ko-KR/common.json +2 -0
  50. package/locales/ko-KR/models.json +24 -0
  51. package/locales/ko-KR/setting.json +5 -0
  52. package/locales/ko-KR/thread.json +5 -0
  53. package/locales/nl-NL/chat.json +7 -0
  54. package/locales/nl-NL/common.json +2 -0
  55. package/locales/nl-NL/models.json +24 -0
  56. package/locales/nl-NL/setting.json +5 -0
  57. package/locales/nl-NL/thread.json +5 -0
  58. package/locales/pl-PL/chat.json +7 -0
  59. package/locales/pl-PL/common.json +2 -0
  60. package/locales/pl-PL/models.json +24 -0
  61. package/locales/pl-PL/setting.json +5 -0
  62. package/locales/pl-PL/thread.json +5 -0
  63. package/locales/pt-BR/chat.json +7 -0
  64. package/locales/pt-BR/common.json +2 -0
  65. package/locales/pt-BR/models.json +24 -0
  66. package/locales/pt-BR/setting.json +5 -0
  67. package/locales/pt-BR/thread.json +5 -0
  68. package/locales/ru-RU/chat.json +7 -0
  69. package/locales/ru-RU/common.json +2 -0
  70. package/locales/ru-RU/models.json +24 -0
  71. package/locales/ru-RU/setting.json +5 -0
  72. package/locales/ru-RU/thread.json +5 -0
  73. package/locales/tr-TR/chat.json +7 -0
  74. package/locales/tr-TR/common.json +2 -0
  75. package/locales/tr-TR/models.json +24 -0
  76. package/locales/tr-TR/setting.json +5 -0
  77. package/locales/tr-TR/thread.json +5 -0
  78. package/locales/vi-VN/chat.json +7 -0
  79. package/locales/vi-VN/common.json +2 -0
  80. package/locales/vi-VN/models.json +24 -0
  81. package/locales/vi-VN/setting.json +5 -0
  82. package/locales/vi-VN/thread.json +5 -0
  83. package/locales/zh-CN/chat.json +7 -0
  84. package/locales/zh-CN/common.json +2 -0
  85. package/locales/zh-CN/models.json +24 -0
  86. package/locales/zh-CN/setting.json +5 -0
  87. package/locales/zh-CN/thread.json +5 -0
  88. package/locales/zh-TW/chat.json +7 -0
  89. package/locales/zh-TW/common.json +2 -0
  90. package/locales/zh-TW/models.json +24 -0
  91. package/locales/zh-TW/setting.json +5 -0
  92. package/locales/zh-TW/thread.json +5 -0
  93. package/package.json +1 -1
  94. package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
  95. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatHydration/index.tsx +11 -2
  96. package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/index.tsx +7 -9
  97. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +7 -2
  98. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/Thread.tsx +62 -0
  99. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/ThreadItem.tsx +68 -0
  100. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/index.tsx +62 -2
  101. package/src/app/(main)/chat/(workspace)/@conversation/features/ThreadHydration.tsx +47 -0
  102. package/src/app/(main)/chat/(workspace)/@portal/_layout/Desktop.tsx +3 -2
  103. package/src/app/(main)/chat/(workspace)/@portal/_layout/Mobile.tsx +47 -6
  104. package/src/app/(main)/chat/(workspace)/@topic/features/SkeletonList.tsx +3 -2
  105. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ByTimeMode/index.tsx +10 -3
  106. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/FlatMode/index.tsx +1 -1
  107. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/Content.tsx +164 -0
  108. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/index.tsx +98 -0
  109. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicItem.tsx → TopicItem/index.tsx} +33 -22
  110. package/src/app/(main)/chat/(workspace)/_layout/Desktop/Portal.tsx +12 -5
  111. package/src/app/(main)/chat/(workspace)/_layout/Mobile/index.tsx +1 -2
  112. package/src/const/message.ts +2 -0
  113. package/src/const/settings/systemAgent.ts +1 -0
  114. package/src/database/server/migrations/0012_add_thread.sql +39 -0
  115. package/src/database/server/migrations/meta/0012_snapshot.json +3671 -0
  116. package/src/database/server/migrations/meta/_journal.json +7 -0
  117. package/src/database/server/models/_template.ts +2 -2
  118. package/src/database/server/models/message.ts +1 -0
  119. package/src/database/server/models/thread.ts +79 -0
  120. package/src/database/server/schemas/lobechat/message.ts +2 -1
  121. package/src/database/server/schemas/lobechat/relations.ts +13 -1
  122. package/src/database/server/schemas/lobechat/topic.ts +30 -1
  123. package/src/database/server/utils/idGenerator.ts +1 -0
  124. package/src/features/ChatInput/ActionBar/Token/TokenTag.tsx +6 -4
  125. package/src/features/ChatInput/ActionBar/Token/index.tsx +24 -5
  126. package/src/features/ChatInput/ActionBar/config.ts +3 -2
  127. package/src/features/ChatInput/Desktop/index.tsx +15 -7
  128. package/src/features/ChatInput/Mobile/index.tsx +4 -4
  129. package/src/features/Conversation/Actions/Assistant.tsx +24 -5
  130. package/src/features/Conversation/Actions/User.tsx +21 -4
  131. package/src/features/Conversation/Actions/index.ts +1 -66
  132. package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/index.tsx +3 -1
  133. package/src/features/Conversation/Messages/{Tool/index.tsx → Assistant/ToolCallItem/Tool.tsx} +10 -11
  134. package/src/features/Conversation/Messages/Assistant/ToolCallItem/index.tsx +5 -3
  135. package/src/features/Conversation/Messages/Assistant/index.tsx +22 -14
  136. package/src/features/Conversation/Messages/index.ts +0 -2
  137. package/src/features/Conversation/components/AutoScroll.tsx +1 -1
  138. package/src/features/Conversation/components/ChatItem/ActionsBar.tsx +79 -5
  139. package/src/features/Conversation/components/ChatItem/InPortalThreadContext.ts +3 -0
  140. package/src/features/Conversation/components/ChatItem/index.tsx +16 -5
  141. package/src/features/Conversation/components/MarkdownElements/LobeArtifact/Render/index.tsx +9 -1
  142. package/src/features/Conversation/components/ThreadDivider/index.tsx +19 -0
  143. package/src/features/Conversation/hooks/useChatListActionsBar.tsx +19 -4
  144. package/src/features/Portal/Thread/Chat/ChatInput/Footer.tsx +90 -0
  145. package/src/features/Portal/Thread/Chat/ChatInput/TextArea.tsx +30 -0
  146. package/src/features/Portal/Thread/Chat/ChatInput/index.tsx +66 -0
  147. package/src/features/Portal/Thread/Chat/ChatInput/useSend.ts +50 -0
  148. package/src/features/Portal/Thread/Chat/ChatItem.tsx +62 -0
  149. package/src/features/Portal/Thread/Chat/ChatList.tsx +49 -0
  150. package/src/features/Portal/Thread/Chat/ThreadDivider/index.tsx +19 -0
  151. package/src/features/Portal/Thread/Chat/index.tsx +28 -0
  152. package/src/features/Portal/Thread/Header/Active.tsx +35 -0
  153. package/src/features/Portal/Thread/Header/New.tsx +37 -0
  154. package/src/features/Portal/Thread/Header/Title.tsx +18 -0
  155. package/src/features/Portal/Thread/Header/index.tsx +20 -0
  156. package/src/features/Portal/Thread/hook.ts +8 -0
  157. package/src/features/Portal/Thread/index.ts +12 -0
  158. package/src/features/Portal/router.tsx +2 -1
  159. package/src/hooks/useFetchTopics.ts +7 -1
  160. package/src/locales/default/chat.ts +8 -1
  161. package/src/locales/default/common.ts +3 -0
  162. package/src/locales/default/index.ts +2 -0
  163. package/src/locales/default/setting.ts +5 -0
  164. package/src/locales/default/thread.ts +5 -0
  165. package/src/server/modules/AgentRuntime/index.test.ts +10 -0
  166. package/src/server/modules/AgentRuntime/index.ts +1 -1
  167. package/src/server/routers/lambda/index.ts +2 -0
  168. package/src/server/routers/lambda/thread.ts +83 -0
  169. package/src/services/thread.ts +54 -0
  170. package/src/store/chat/initialState.ts +3 -0
  171. package/src/store/chat/selectors.ts +2 -1
  172. package/src/store/chat/slices/aiChat/actions/__tests__/generateAIChat.test.ts +1 -1
  173. package/src/store/chat/slices/aiChat/actions/__tests__/rag.test.ts +1 -1
  174. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +31 -8
  175. package/src/store/chat/slices/aiChat/actions/rag.ts +1 -1
  176. package/src/store/chat/slices/message/selectors.test.ts +3 -3
  177. package/src/store/chat/slices/message/selectors.ts +50 -29
  178. package/src/store/chat/slices/plugin/action.ts +26 -8
  179. package/src/store/chat/slices/portal/action.ts +1 -0
  180. package/src/store/chat/slices/portal/initialState.ts +1 -0
  181. package/src/store/chat/slices/portal/selectors/thread.ts +17 -0
  182. package/src/store/chat/slices/portal/selectors.ts +2 -0
  183. package/src/store/chat/slices/thread/action.ts +326 -0
  184. package/src/store/chat/slices/thread/initialState.ts +34 -0
  185. package/src/store/chat/slices/thread/reducer.ts +48 -0
  186. package/src/store/chat/slices/thread/selectors/index.ts +202 -0
  187. package/src/store/chat/slices/thread/selectors/util.ts +22 -0
  188. package/src/store/chat/slices/topic/action.ts +5 -1
  189. package/src/store/chat/store.ts +5 -2
  190. package/src/store/global/initialState.ts +4 -0
  191. package/src/store/global/selectors.ts +4 -0
  192. package/src/store/user/slices/settings/selectors/systemAgent.ts +2 -0
  193. package/src/types/message/index.ts +17 -1
  194. package/src/types/topic/index.ts +1 -0
  195. package/src/types/topic/thread.ts +42 -0
  196. package/src/types/user/settings/systemAgent.ts +1 -0
  197. package/src/app/(main)/chat/(workspace)/@portal/features/Header.tsx +0 -11
  198. package/src/app/(main)/chat/(workspace)/_layout/Mobile/PortalModal.tsx +0 -35
  199. /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/SendMore.tsx +0 -0
  200. /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/ShortcutHint.tsx +0 -0
  201. /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{DefaultContent.tsx → TopicItem/DefaultContent.tsx} +0 -0
  202. /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicContent.tsx → TopicItem/TopicContent.tsx} +0 -0
  203. /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/PluginResultJSON.tsx +0 -0
  204. /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/Settings.tsx +0 -0
  205. /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/style.ts +0 -0
@@ -16,6 +16,8 @@
16
16
  "back": "뒤로",
17
17
  "batchDelete": "일괄 삭제",
18
18
  "blog": "제품 블로그",
19
+ "branching": "하위 주제 만들기",
20
+ "branchingDisable": "「하위 주제」 기능은 서버 버전에서만 사용할 수 있습니다. 이 기능이 필요하시면 서버 배포 모드로 전환하거나 LobeChat Cloud를 사용하세요.",
19
21
  "cancel": "취소",
20
22
  "changelog": "변경 로그",
21
23
  "close": "닫기",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 128k 컨텍스트를 지원합니다. 현재 최상의 오픈 소스 모델과 비교할 때, Qwen2-72B는 자연어 이해, 지식, 코드, 수학 및 다국어 등 여러 능력에서 현재 선도하는 모델을 현저히 초월합니다."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 동등한 규모의 최적 오픈 소스 모델은 물론 더 큰 규모의 모델을 초월할 수 있습니다. Qwen2 7B는 여러 평가에서 현저한 우위를 차지하였으며, 특히 코드 및 중국어 이해에서 두드러진 성과를 보였습니다."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct는 16k 컨텍스트를 지원하며, 8K를 초과하는 긴 텍스트를 생성할 수 있습니다. 함수 호출 및 외부 시스템과의 원활한 상호작용을 지원하여 유연성과 확장성을 크게 향상시킵니다. 모델의 지식이 현저히 증가하였고, 인코딩 및 수학 능력이 크게 향상되었으며, 29개 이상의 언어를 지원합니다."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "기본 버전 모델(V4), 4K 컨텍스트 길이, 일반적인 능력이 강력합니다."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large는 업계에서 가장 큰 오픈 소스 Transformer 아키텍처 MoE 모델로, 총 3890억 개의 매개변수와 520억 개의 활성 매개변수를 가지고 있습니다."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B는 원래 시리즈 모델의 뛰어난 일반 언어 능력을 유지하면서, 5000억 개의 고품질 토큰을 통해 점진적으로 훈련하여 수학적 논리 및 코드 능력을 크게 향상시켰습니다."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "생산성 시나리오를 위해 설계되었으며, 복잡한 작업 처리 및 효율적인 텍스트 생성을 지원하여 전문 분야 응용에 적합합니다."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4는 강력한 AI 프로그래밍 도우미로, 다양한 프로그래밍 언어에 대한 스마트 Q&A 및 코드 완성을 지원하여 개발 효율성을 높입니다."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B는 다국어 코드 생성 모델로, 코드 완성 및 생성, 코드 해석기, 웹 검색, 함수 호출, 저장소 수준의 코드 질문 응답 등 다양한 기능을 지원하여 소프트웨어 개발의 여러 시나리오를 포괄합니다. 10B 미만의 매개변수를 가진 최고의 코드 생성 모델입니다."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "일반 및 코드 능력을 융합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 측면에서 큰 향상을 이루었습니다."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B는 코드 언어 모델로, 20조 개의 데이터로 훈련되었으며, 그 중 87%는 코드, 13%는 중문 및 영문입니다. 모델은 16K 창 크기와 빈칸 채우기 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 채우기 기능을 제공합니다."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114는 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며, 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121은 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520은 최신 모델 버전으로, 매우 복잡하고 다양한 작업을 위해 설계되어 뛰어난 성능을 발휘합니다."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat은 의미, 수학, 추론, 코드 및 지식 등 여러 분야에서 높은 성능을 보입니다. 웹 브라우징, 코드 실행, 사용자 정의 도구 호출 및 긴 텍스트 추론 기능도 갖추고 있습니다. 일본어, 한국어, 독일어를 포함한 26개 언어를 지원합니다."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며 빠른 속도와 저렴한 가격을 자랑합니다."
508
532
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "사용자의 질문을 최적화하는 데 사용되는 모델 지정",
390
390
  "title": "지식 베이스 질문 재작성"
391
391
  },
392
+ "thread": {
393
+ "label": "하위 주제 명명 모델",
394
+ "modelDesc": "하위 주제 자동 이름 변경에 사용되는 모델 지정",
395
+ "title": "하위 주제 자동 명명"
396
+ },
392
397
  "title": "시스템 도우미",
393
398
  "topic": {
394
399
  "label": "주제 명명 모델",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "이 하위 주제를 삭제하려고 합니다. 삭제 후에는 복구할 수 없으니 신중하게 진행해 주시기 바랍니다."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Assistent",
9
9
  "artifact": {
10
10
  "generating": "Genereren",
11
+ "inThread": "Je kunt het niet bekijken in het subonderwerp, schakel over naar het hoofdgesprek om het te openen.",
11
12
  "thinking": "Denken",
12
13
  "thought": "Denken proces",
13
14
  "unknownTitle": "Onbenoemd werk"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Verwijderen en opnieuw genereren",
69
+ "deleteDisabledByThreads": "Er zijn subonderwerpen, verwijderen is niet mogelijk.",
68
70
  "regenerate": "Opnieuw genereren"
69
71
  },
70
72
  "newAgent": "Nieuwe assistent",
@@ -121,6 +123,11 @@
121
123
  "loading": "Bezig met herkennen...",
122
124
  "prettifying": "Aan het verfraaien..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Subonderwerp",
128
+ "threadMessageCount": "{{messageCount}} berichten",
129
+ "title": "Subonderwerp"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Chats",
126
133
  "historySummary": "Geschiedenis samenvatting",
@@ -16,6 +16,8 @@
16
16
  "back": "Terug",
17
17
  "batchDelete": "Batch verwijderen",
18
18
  "blog": "Product Blog",
19
+ "branching": "Subonderwerp aanmaken",
20
+ "branchingDisable": "De functie 'Subonderwerp' is alleen beschikbaar in de serverversie. Als je deze functie wilt gebruiken, schakel dan over naar de serverimplementatiemodus of gebruik LobeChat Cloud.",
19
21
  "cancel": "Annuleren",
20
22
  "changelog": "Wijzigingslogboek",
21
23
  "close": "Sluiten",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math richt zich op het oplossen van wiskundige vraagstukken en biedt professionele antwoorden op moeilijke vragen."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat 128k context ondersteunt. In vergelijking met de huidige beste open-source modellen, overtreft Qwen2-72B op het gebied van natuurlijke taalbegrip, kennis, code, wiskunde en meertaligheid aanzienlijk de huidige toonaangevende modellen."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat in staat is om de beste open-source modellen van gelijke grootte of zelfs grotere modellen te overtreffen. Qwen2 7B heeft aanzienlijke voordelen behaald in verschillende evaluaties, vooral op het gebied van code en begrip van het Chinees."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct ondersteunt 16k context en genereert lange teksten van meer dan 8K. Het ondersteunt functieaanroepen en naadloze interactie met externe systemen, wat de flexibiliteit en schaalbaarheid aanzienlijk vergroot. De kennis van het model is duidelijk toegenomen en de coderings- en wiskundige vaardigheden zijn sterk verbeterd, met ondersteuning voor meer dan 29 talen."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Basisversie van het model (V4), met een contextlengte van 4K, heeft sterke algemene capaciteiten."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large is het grootste open source Transformer-architectuur MoE-model in de industrie, met een totaal van 389 miljard parameters en 52 miljard geactiveerde parameters."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B heeft de uitstekende algemene taalvaardigheden van de oorspronkelijke modelserie behouden en heeft door incrementele training van 500 miljard hoogwaardige tokens de wiskundige logica en codevaardigheden aanzienlijk verbeterd."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Gericht op productiviteitsscenario's, ondersteunt complexe taakverwerking en efficiënte tekstgeneratie, geschikt voor professionele toepassingen."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4 is een krachtige AI-programmeerassistent die slimme vraag- en antwoordmogelijkheden en code-aanvulling ondersteunt voor verschillende programmeertalen, waardoor de ontwikkelingssnelheid wordt verhoogd."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat uitgebreide functionaliteit biedt, waaronder code-aanvulling en -generatie, code-interpreter, webzoekfunctie, functieaanroepen en repository-niveau codevragen, en dekt verschillende scenario's in softwareontwikkeling. Het is een top codegeneratiemodel met minder dan 10B parameters."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma is een lichtgewicht taalmodel dat speciaal is ontworpen voor verschillende programmeertaken, ondersteunt snelle iteratie en integratie."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Een nieuw open-source model dat algemene en code-capaciteiten combineert, behoudt niet alleen de algemene conversatiecapaciteiten van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model, maar is ook beter afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en andere gebieden."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B is een code-taalmodel, getraind op 20 biljoen gegevens, waarvan 87% code en 13% in het Chinees en Engels. Het model introduceert een venstergrootte van 16K en invultaken, en biedt projectniveau code-aanvulling en fragmentinvulfunctionaliteit."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 is een open-source hybride expertcode-model, presteert uitstekend in code-taken en is vergelijkbaar met GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114 is Google's nieuwste experimentele multimodale AI-model, met een snelle verwerkingscapaciteit, ondersteunt tekst-, beeld- en video-invoer, geschikt voor efficiënte schaling van diverse taken."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 is Google's nieuwste experimentele multimodale AI-model, dat snel kan verwerken en ondersteuning biedt voor tekst-, beeld- en video-invoer, geschikt voor efficiënte opschaling van verschillende taken."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520 is de nieuwste modelversie, speciaal ontworpen voor zeer complexe en diverse taken, met uitstekende prestaties."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat presteert goed op het gebied van semantiek, wiskunde, redeneren, code en kennis. Het beschikt ook over webbrowserfunctionaliteit, code-uitvoering, aangepaste toolaanroepen en lange tekstredenering. Ondersteunt 26 talen, waaronder Japans, Koreaans en Duits."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air is een kosteneffectieve versie met prestaties die dicht bij GLM-4 liggen, met snelle snelheid en een betaalbare prijs."
508
532
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Model dat is opgegeven voor het optimaliseren van gebruikersvragen",
390
390
  "title": "Herformuleren van vragen in de kennisbank"
391
391
  },
392
+ "thread": {
393
+ "label": "Subtopic Naamgevingsmodel",
394
+ "modelDesc": "Model dat wordt gebruikt voor het automatisch hernoemen van subonderwerpen",
395
+ "title": "Automatische naamgeving van subonderwerpen"
396
+ },
392
397
  "title": "Systeemassistent",
393
398
  "topic": {
394
399
  "label": "Onderwerp Naamgevingsmodel",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "U staat op het punt dit subonderwerp te verwijderen. Na verwijdering kan het niet worden hersteld, dus wees voorzichtig."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Asystent",
9
9
  "artifact": {
10
10
  "generating": "Generowanie",
11
+ "inThread": "Nie można przeglądać w wątku, przełącz się na główny obszar rozmowy, aby otworzyć",
11
12
  "thinking": "Myślenie",
12
13
  "thought": "Proces myślenia",
13
14
  "unknownTitle": "Nienazwane dzieło"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Usuń i wygeneruj ponownie",
69
+ "deleteDisabledByThreads": "Istnieją podwątki, nie można usunąć",
68
70
  "regenerate": "Wygeneruj ponownie"
69
71
  },
70
72
  "newAgent": "Nowy asystent",
@@ -121,6 +123,11 @@
121
123
  "loading": "Rozpoznawanie...",
122
124
  "prettifying": "Upiększanie..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Podwątek",
128
+ "threadMessageCount": "{{messageCount}} wiadomości",
129
+ "title": "Podwątek"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Rozmowy",
126
133
  "historySummary": "Podsumowanie historii",
@@ -16,6 +16,8 @@
16
16
  "back": "Powrót",
17
17
  "batchDelete": "Usuń wiele",
18
18
  "blog": "Blog produktowy",
19
+ "branching": "Utwórz podtemat",
20
+ "branchingDisable": "Funkcja „podtemat” jest dostępna tylko w wersji serwerowej. Aby skorzystać z tej funkcji, przełącz się na tryb wdrożenia serwera lub użyj LobeChat Cloud.",
19
21
  "cancel": "Anuluj",
20
22
  "changelog": "Dziennik zmian",
21
23
  "close": "Zamknij",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 to najnowsza seria modeli Qwen, obsługująca kontekst 128k. W porównaniu do obecnie najlepszych modeli open source, Qwen2-72B znacznie przewyższa w zakresie rozumienia języka naturalnego, wiedzy, kodowania, matematyki i wielu języków."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 to najnowsza seria modeli Qwen, która przewyższa najlepsze modele open source o podobnej skali, a nawet większe. Qwen2 7B osiągnęła znaczną przewagę w wielu testach, szczególnie w zakresie kodowania i rozumienia języka chińskiego."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct obsługuje kontekst 16k, generując długie teksty przekraczające 8K. Wspiera wywołania funkcji i bezproblemową interakcję z systemami zewnętrznymi, znacznie zwiększając elastyczność i skalowalność. Wiedza modelu znacznie wzrosła, a jego zdolności w zakresie kodowania i matematyki uległy znacznemu poprawieniu, z obsługą ponad 29 języków."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Podstawowa wersja modelu (V4), długość kontekstu 4K, silne zdolności ogólne."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large to największy w branży otwarty model Transformer MoE, z 389 miliardami parametrów ogółem i 52 miliardami aktywowanych parametrów."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, zachowując doskonałe ogólne zdolności językowe oryginalnej serii modeli, znacznie poprawił zdolności logiczne i kodowania dzięki dodatkowym treningom na 500 miliardach wysokiej jakości tokenów."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Skierowany do scenariuszy produkcyjnych, wspierający przetwarzanie złożonych zadań i efektywne generowanie tekstu, odpowiedni do zastosowań w profesjonalnych dziedzinach."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4 to potężny asystent programowania AI, obsługujący inteligentne pytania i odpowiedzi oraz uzupełnianie kodu w różnych językach programowania, zwiększając wydajność programistów."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B to model generowania kodu w wielu językach, który obsługuje kompleksowe funkcje, w tym uzupełnianie i generowanie kodu, interpreter kodu, wyszukiwanie w sieci, wywołania funkcji oraz pytania i odpowiedzi na poziomie repozytoriów, obejmując różne scenariusze rozwoju oprogramowania. Jest to wiodący model generowania kodu z mniej niż 10B parametrów."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma to lekki model językowy, specjalizujący się w różnych zadaniach programistycznych, wspierający szybkie iteracje i integrację."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Nowy otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu czatu i potężne zdolności przetwarzania kodu modelu Coder, ale także lepiej dostosowuje się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i innych obszarach."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B to model języka kodu, wytrenowany na 20 bilionach danych, z czego 87% to kod, a 13% to języki chiński i angielski. Model wprowadza okno o rozmiarze 16K oraz zadania uzupełniania, oferując funkcje uzupełniania kodu na poziomie projektu i wypełniania fragmentów."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114 to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe oraz wideo, co umożliwia wydajne rozszerzanie go na różne zadania."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 to najnowszy eksperymentalny model AI Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe i wideo, co czyni go wydajnym narzędziem do rozwiązywania różnych zadań."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do wysoko złożonych i zróżnicowanych zadań, z doskonałymi wynikami."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat wykazuje wysoką wydajność w wielu aspektach, takich jak semantyka, matematyka, wnioskowanie, kodowanie i wiedza. Posiada również funkcje przeglądania stron internetowych, wykonywania kodu, wywoływania niestandardowych narzędzi oraz wnioskowania z długich tekstów. Obsługuje 26 języków, w tym japoński, koreański i niemiecki."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air to opłacalna wersja, której wydajność jest zbliżona do GLM-4, oferująca szybkie działanie i przystępną cenę."
508
532
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Model używany do optymalizacji zapytań użytkowników",
390
390
  "title": "Przekształcenie zapytań w bazie wiedzy"
391
391
  },
392
+ "thread": {
393
+ "label": "Model do nazywania podtematów",
394
+ "modelDesc": "Model używany do automatycznego zmieniania nazw podtematów",
395
+ "title": "Automatyczne nazywanie podtematów"
396
+ },
392
397
  "title": "Asystent Systemowy",
393
398
  "topic": {
394
399
  "label": "Model nazewnictwa tematów",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Zaraz usuniesz ten wątek, po usunięciu nie będzie można go przywrócić, proszę postępować ostrożnie."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Assistente",
9
9
  "artifact": {
10
10
  "generating": "Gerando",
11
+ "inThread": "Não é possível visualizar no subtópico, por favor, mude para a área de conversa principal.",
11
12
  "thinking": "Pensando",
12
13
  "thought": "Processo de pensamento",
13
14
  "unknownTitle": "Obra sem título"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Excluir e Regenerar",
69
+ "deleteDisabledByThreads": "Existem subtópicos, não é possível deletar.",
68
70
  "regenerate": "Regenerar"
69
71
  },
70
72
  "newAgent": "Novo Assistente",
@@ -121,6 +123,11 @@
121
123
  "loading": "Reconhecendo...",
122
124
  "prettifying": "Embelezando..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Subtópico",
128
+ "threadMessageCount": "{{messageCount}} mensagens",
129
+ "title": "Subtópico"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Mensagens de bate-papo",
126
133
  "historySummary": "Resumo Histórico",
@@ -16,6 +16,8 @@
16
16
  "back": "Voltar",
17
17
  "batchDelete": "Excluir em massa",
18
18
  "blog": "Blog de Produtos",
19
+ "branching": "Criar subtópico",
20
+ "branchingDisable": "A funcionalidade de \"subtópico\" está disponível apenas na versão do servidor. Se precisar dessa funcionalidade, mude para o modo de implantação no servidor ou use o LobeChat Cloud.",
19
21
  "cancel": "Cancelar",
20
22
  "changelog": "Registro de alterações",
21
23
  "close": "Fechar",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 é a mais recente série do modelo Qwen, capaz de superar modelos de código aberto de tamanho equivalente e até mesmo modelos de maior escala. O Qwen2 7B obteve vantagens significativas em várias avaliações, especialmente em compreensão de código e chinês."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct suporta 16k de contexto, gerando textos longos com mais de 8K. Suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. O conhecimento do modelo aumentou consideravelmente, e suas habilidades em codificação e matemática melhoraram muito, com suporte a mais de 29 idiomas."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large é o maior modelo MoE de arquitetura Transformer open source da indústria, com um total de 389 bilhões de parâmetros e 52 bilhões de parâmetros ativados."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, mantendo as excelentes habilidades linguísticas do modelo original, aumentou significativamente suas capacidades de lógica matemática e codificação através de treinamento incremental com 500 bilhões de tokens de alta qualidade."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue, suportando funcionalidades abrangentes, incluindo completude e geração de código, interpretador de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo diversos cenários de desenvolvimento de software. É um modelo de geração de código de ponta com menos de 10B de parâmetros."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Um novo modelo de código aberto que combina capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B é um modelo de linguagem de código, treinado com 20 trilhões de dados, dos quais 87% são código e 13% são em chinês e inglês. O modelo introduz uma janela de 16K e tarefas de preenchimento, oferecendo funcionalidades de completude de código e preenchimento de fragmentos em nível de projeto."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "O Gemini Exp 1114 é o mais recente modelo experimental de IA multimodal da Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a expansão eficiente de várias tarefas."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 é o mais recente modelo experimental de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente em várias tarefas."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio, código e conhecimento. Também possui navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio de texto longo. Suporta 26 idiomas, incluindo japonês, coreano e alemão."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
508
532
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Modelo designado para otimizar as perguntas dos usuários",
390
390
  "title": "Reescrita de perguntas do banco de dados"
391
391
  },
392
+ "thread": {
393
+ "label": "Modelo de Nomeação de Subtópicos",
394
+ "modelDesc": "Modelo designado para a renomeação automática de subtópicos",
395
+ "title": "Nomeação Automática de Subtópicos"
396
+ },
392
397
  "title": "Assistente do Sistema",
393
398
  "topic": {
394
399
  "label": "Modelo de Nomeação de Tópicos",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Você está prestes a remover este subtópico. Após a exclusão, não será possível recuperá-lo. Por favor, proceda com cautela."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Ассистент",
9
9
  "artifact": {
10
10
  "generating": "Генерация",
11
+ "inThread": "Невозможно просмотреть в подтеме, переключитесь на основную область диалога",
11
12
  "thinking": "В процессе размышлений",
12
13
  "thought": "Процесс мышления",
13
14
  "unknownTitle": "Безымянное произведение"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Удалить и пересоздать",
69
+ "deleteDisabledByThreads": "Существуют подтемы, удаление невозможно",
68
70
  "regenerate": "Пересоздать"
69
71
  },
70
72
  "newAgent": "Создать помощника",
@@ -121,6 +123,11 @@
121
123
  "loading": "Распознавание...",
122
124
  "prettifying": "Форматирование..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Подтема",
128
+ "threadMessageCount": "{{messageCount}} сообщений",
129
+ "title": "Подтема"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Чаты",
126
133
  "historySummary": "Историческое резюме",
@@ -16,6 +16,8 @@
16
16
  "back": "Назад",
17
17
  "batchDelete": "Пакетное удаление",
18
18
  "blog": "Блог о продуктах",
19
+ "branching": "Создать подтему",
20
+ "branchingDisable": "Функция «Подтема» доступна только в серверной версии. Если вам нужна эта функция, переключитесь на серверный режим развертывания или используйте LobeChat Cloud.",
19
21
  "cancel": "Отмена",
20
22
  "changelog": "История изменений",
21
23
  "close": "Закрыть",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 — это последняя серия моделей Qwen, способная превосходить лучшие открытые модели сопоставимого размера и даже более крупные модели. Qwen2 7B демонстрирует значительные преимущества в нескольких тестах, особенно в понимании кода и китайского языка."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct поддерживает контекст до 16k, генерируя длинные тексты более 8K. Поддерживает вызовы функций и бесшовное взаимодействие с внешними системами, что значительно повышает гибкость и масштабируемость. Знания модели значительно увеличены, а способности в кодировании и математике значительно улучшены, поддерживает более 29 языков."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large — это крупнейшая в отрасли открытая модель Transformer архитектуры MoE с общим количеством параметров 389 миллиардов и 52 миллиарда активных параметров."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, сохраняя выдающиеся универсальные языковые способности оригинальной серии моделей, значительно улучшила математическую логику и способности к кодированию благодаря инкрементальному обучению на 500 миллиардов высококачественных токенов."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B — это многоязычная модель генерации кода, поддерживающая полный спектр функций, включая автозаполнение и генерацию кода, интерпретатор кода, веб-поиск, вызовы функций и вопросы по коду на уровне репозитория, охватывающая различные сценарии разработки программного обеспечения. Это одна из лучших моделей генерации кода с количеством параметров менее 10B."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B — это модель языкового кодирования, обученная на 20 триллионах данных, из которых 87% составляют код, а 13% — китайский и английский языки. Модель использует размер окна 16K и задачи заполнения пропусков, предоставляя функции автозаполнения кода и заполнения фрагментов на уровне проектов."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114 — это новейшая экспериментальная многомодальная ИИ модель от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, изображенческие и видеовходы, что позволяет эффективно расширять применение для различных задач."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 — это последняя экспериментальная многомодальная AI модель от Google, обладающая высокой скоростью обработки, поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat демонстрирует высокую производительность в семантике, математике, логическом мышлении, кодировании и знаниях. Также поддерживает веб-браузинг, выполнение кода, вызовы пользовательских инструментов и длинное текстовое рассуждение. Поддерживает 26 языков, включая японский, корейский и немецкий."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену."
508
532
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Модель, предназначенная для оптимизации вопросов пользователей",
390
390
  "title": "Переписывание вопросов базы знаний"
391
391
  },
392
+ "thread": {
393
+ "label": "Модель именования подтем",
394
+ "modelDesc": "Модель, используемая для автоматического переименования подтем",
395
+ "title": "Автоматическое именование подтем"
396
+ },
392
397
  "title": "Системный агент",
393
398
  "topic": {
394
399
  "label": "Модель именования тем",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Вы собираетесь удалить эту под-тему. После удаления восстановить её будет невозможно, пожалуйста, действуйте осторожно."
4
+ }
5
+ }