@lobehub/chat 1.33.4 → 1.34.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (295) hide show
  1. package/.i18nrc.js +8 -2
  2. package/.releaserc.js +10 -1
  3. package/CHANGELOG.md +51 -16624
  4. package/changelog/CHANGELOG.v0.md +16621 -0
  5. package/changelog/v0.json +6064 -0
  6. package/changelog/v1.json +3356 -0
  7. package/docs/changelog/2024-11-25-november-providers.mdx +19 -0
  8. package/docs/changelog/2024-11-25-november-providers.zh-CN.mdx +17 -0
  9. package/docs/changelog/index.json +12 -0
  10. package/docs/changelog/schema.json +70 -0
  11. package/docs/self-hosting/advanced/auth/clerk.mdx +19 -23
  12. package/docs/self-hosting/advanced/auth/clerk.zh-CN.mdx +5 -4
  13. package/docs/self-hosting/advanced/auth/next-auth/authelia.mdx +2 -4
  14. package/docs/self-hosting/advanced/auth/next-auth/authelia.zh-CN.mdx +3 -5
  15. package/docs/self-hosting/advanced/auth/next-auth/authentik.zh-CN.mdx +2 -2
  16. package/docs/self-hosting/advanced/auth/next-auth/casdoor.mdx +49 -44
  17. package/docs/self-hosting/advanced/auth/next-auth/casdoor.zh-CN.mdx +42 -41
  18. package/docs/self-hosting/advanced/auth/next-auth/logto.mdx +29 -21
  19. package/docs/self-hosting/advanced/auth/next-auth/logto.zh-CN.mdx +2 -1
  20. package/docs/self-hosting/advanced/auth.mdx +10 -10
  21. package/docs/self-hosting/advanced/auth.zh-CN.mdx +10 -10
  22. package/docs/self-hosting/advanced/feature-flags.zh-CN.mdx +1 -1
  23. package/docs/self-hosting/advanced/model-list.mdx +1 -1
  24. package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +17 -12
  25. package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +33 -20
  26. package/docs/self-hosting/advanced/s3.mdx +31 -28
  27. package/docs/self-hosting/advanced/s3.zh-CN.mdx +1 -0
  28. package/docs/self-hosting/advanced/webrtc.mdx +1 -0
  29. package/docs/self-hosting/environment-variables/s3.mdx +4 -3
  30. package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +1 -0
  31. package/docs/self-hosting/environment-variables.mdx +6 -9
  32. package/docs/self-hosting/platform/alibaba-cloud.mdx +1 -2
  33. package/docs/self-hosting/platform/alibaba-cloud.zh-CN.mdx +1 -2
  34. package/docs/self-hosting/platform/btpanel.mdx +7 -13
  35. package/docs/self-hosting/platform/btpanel.zh-CN.mdx +8 -13
  36. package/docs/self-hosting/platform/docker.zh-CN.mdx +2 -1
  37. package/docs/self-hosting/platform/netlify.zh-CN.mdx +2 -1
  38. package/docs/self-hosting/server-database/docker.mdx +18 -5
  39. package/docs/self-hosting/server-database/docker.zh-CN.mdx +9 -6
  40. package/docs/self-hosting/server-database/netlify.mdx +0 -1
  41. package/docs/self-hosting/server-database/railway.mdx +0 -1
  42. package/docs/self-hosting/server-database/repocloud.mdx +5 -2
  43. package/docs/self-hosting/server-database/repocloud.zh-CN.mdx +23 -3
  44. package/docs/self-hosting/server-database/sealos.mdx +3 -0
  45. package/docs/self-hosting/server-database/vercel.mdx +35 -32
  46. package/docs/self-hosting/server-database/vercel.zh-CN.mdx +25 -25
  47. package/docs/self-hosting/server-database/zeabur.mdx +2 -2
  48. package/docs/self-hosting/server-database/zeabur.zh-CN.mdx +3 -4
  49. package/docs/self-hosting/server-database.mdx +23 -8
  50. package/docs/self-hosting/start.mdx +8 -2
  51. package/docs/usage/features/database.zh-CN.mdx +1 -1
  52. package/docs/usage/foundation/text2image.mdx +1 -2
  53. package/docs/usage/foundation/text2image.zh-CN.mdx +1 -3
  54. package/docs/usage/providers/ai21.mdx +14 -15
  55. package/docs/usage/providers/ai21.zh-CN.mdx +1 -3
  56. package/docs/usage/providers/ai360.mdx +14 -15
  57. package/docs/usage/providers/ai360.zh-CN.mdx +1 -3
  58. package/docs/usage/providers/cloudflare.mdx +1 -1
  59. package/docs/usage/providers/fireworksai.mdx +19 -19
  60. package/docs/usage/providers/fireworksai.zh-CN.mdx +1 -3
  61. package/docs/usage/providers/github.mdx +22 -21
  62. package/docs/usage/providers/github.zh-CN.mdx +6 -6
  63. package/docs/usage/providers/hunyuan.mdx +17 -18
  64. package/docs/usage/providers/hunyuan.zh-CN.mdx +1 -3
  65. package/docs/usage/providers/siliconcloud.mdx +14 -15
  66. package/docs/usage/providers/siliconcloud.zh-CN.mdx +3 -5
  67. package/docs/usage/providers/spark.mdx +17 -18
  68. package/docs/usage/providers/spark.zh-CN.mdx +1 -3
  69. package/docs/usage/providers/upstage.mdx +14 -15
  70. package/docs/usage/providers/upstage.zh-CN.mdx +1 -3
  71. package/docs/usage/providers/wenxin.mdx +17 -18
  72. package/docs/usage/providers/wenxin.zh-CN.mdx +1 -3
  73. package/docs/usage/providers/zeroone.mdx +2 -2
  74. package/locales/ar/chat.json +7 -0
  75. package/locales/ar/common.json +2 -0
  76. package/locales/ar/models.json +24 -0
  77. package/locales/ar/providers.json +3 -0
  78. package/locales/ar/setting.json +5 -0
  79. package/locales/ar/thread.json +5 -0
  80. package/locales/bg-BG/chat.json +7 -0
  81. package/locales/bg-BG/common.json +2 -0
  82. package/locales/bg-BG/models.json +24 -0
  83. package/locales/bg-BG/providers.json +3 -0
  84. package/locales/bg-BG/setting.json +5 -0
  85. package/locales/bg-BG/thread.json +5 -0
  86. package/locales/de-DE/chat.json +7 -0
  87. package/locales/de-DE/common.json +2 -0
  88. package/locales/de-DE/models.json +24 -0
  89. package/locales/de-DE/providers.json +3 -0
  90. package/locales/de-DE/setting.json +5 -0
  91. package/locales/de-DE/thread.json +5 -0
  92. package/locales/en-US/chat.json +7 -0
  93. package/locales/en-US/common.json +2 -0
  94. package/locales/en-US/models.json +24 -0
  95. package/locales/en-US/providers.json +3 -0
  96. package/locales/en-US/setting.json +5 -0
  97. package/locales/en-US/thread.json +5 -0
  98. package/locales/es-ES/chat.json +7 -0
  99. package/locales/es-ES/common.json +2 -0
  100. package/locales/es-ES/models.json +24 -0
  101. package/locales/es-ES/providers.json +3 -0
  102. package/locales/es-ES/setting.json +5 -0
  103. package/locales/es-ES/thread.json +5 -0
  104. package/locales/fa-IR/chat.json +7 -0
  105. package/locales/fa-IR/common.json +2 -0
  106. package/locales/fa-IR/models.json +24 -0
  107. package/locales/fa-IR/providers.json +3 -0
  108. package/locales/fa-IR/setting.json +5 -0
  109. package/locales/fa-IR/thread.json +5 -0
  110. package/locales/fr-FR/chat.json +7 -0
  111. package/locales/fr-FR/common.json +2 -0
  112. package/locales/fr-FR/models.json +24 -0
  113. package/locales/fr-FR/providers.json +3 -0
  114. package/locales/fr-FR/setting.json +5 -0
  115. package/locales/fr-FR/thread.json +5 -0
  116. package/locales/it-IT/chat.json +7 -0
  117. package/locales/it-IT/common.json +2 -0
  118. package/locales/it-IT/models.json +24 -0
  119. package/locales/it-IT/providers.json +3 -0
  120. package/locales/it-IT/setting.json +5 -0
  121. package/locales/it-IT/thread.json +5 -0
  122. package/locales/ja-JP/chat.json +7 -0
  123. package/locales/ja-JP/common.json +2 -0
  124. package/locales/ja-JP/models.json +24 -0
  125. package/locales/ja-JP/providers.json +3 -0
  126. package/locales/ja-JP/setting.json +5 -0
  127. package/locales/ja-JP/thread.json +5 -0
  128. package/locales/ko-KR/chat.json +7 -0
  129. package/locales/ko-KR/common.json +2 -0
  130. package/locales/ko-KR/models.json +24 -0
  131. package/locales/ko-KR/providers.json +3 -0
  132. package/locales/ko-KR/setting.json +5 -0
  133. package/locales/ko-KR/thread.json +5 -0
  134. package/locales/nl-NL/chat.json +7 -0
  135. package/locales/nl-NL/common.json +2 -0
  136. package/locales/nl-NL/models.json +24 -0
  137. package/locales/nl-NL/providers.json +3 -0
  138. package/locales/nl-NL/setting.json +5 -0
  139. package/locales/nl-NL/thread.json +5 -0
  140. package/locales/pl-PL/chat.json +7 -0
  141. package/locales/pl-PL/common.json +2 -0
  142. package/locales/pl-PL/models.json +24 -0
  143. package/locales/pl-PL/providers.json +3 -0
  144. package/locales/pl-PL/setting.json +5 -0
  145. package/locales/pl-PL/thread.json +5 -0
  146. package/locales/pt-BR/chat.json +7 -0
  147. package/locales/pt-BR/common.json +2 -0
  148. package/locales/pt-BR/models.json +24 -0
  149. package/locales/pt-BR/providers.json +3 -0
  150. package/locales/pt-BR/setting.json +5 -0
  151. package/locales/pt-BR/thread.json +5 -0
  152. package/locales/ru-RU/chat.json +7 -0
  153. package/locales/ru-RU/common.json +2 -0
  154. package/locales/ru-RU/models.json +24 -0
  155. package/locales/ru-RU/providers.json +3 -0
  156. package/locales/ru-RU/setting.json +5 -0
  157. package/locales/ru-RU/thread.json +5 -0
  158. package/locales/tr-TR/chat.json +7 -0
  159. package/locales/tr-TR/common.json +2 -0
  160. package/locales/tr-TR/models.json +24 -0
  161. package/locales/tr-TR/providers.json +3 -0
  162. package/locales/tr-TR/setting.json +5 -0
  163. package/locales/tr-TR/thread.json +5 -0
  164. package/locales/vi-VN/chat.json +7 -0
  165. package/locales/vi-VN/common.json +2 -0
  166. package/locales/vi-VN/models.json +24 -0
  167. package/locales/vi-VN/providers.json +3 -0
  168. package/locales/vi-VN/setting.json +5 -0
  169. package/locales/vi-VN/thread.json +5 -0
  170. package/locales/zh-CN/chat.json +7 -0
  171. package/locales/zh-CN/common.json +2 -0
  172. package/locales/zh-CN/models.json +24 -0
  173. package/locales/zh-CN/providers.json +3 -0
  174. package/locales/zh-CN/setting.json +5 -0
  175. package/locales/zh-CN/thread.json +5 -0
  176. package/locales/zh-TW/chat.json +7 -0
  177. package/locales/zh-TW/common.json +2 -0
  178. package/locales/zh-TW/models.json +24 -0
  179. package/locales/zh-TW/providers.json +3 -0
  180. package/locales/zh-TW/setting.json +5 -0
  181. package/locales/zh-TW/thread.json +5 -0
  182. package/package.json +6 -1
  183. package/scripts/changelogWorkflow/buildStaticChangelog.ts +135 -0
  184. package/scripts/changelogWorkflow/const.ts +11 -0
  185. package/scripts/changelogWorkflow/index.ts +10 -0
  186. package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
  187. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatHydration/index.tsx +11 -2
  188. package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/index.tsx +7 -9
  189. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +7 -2
  190. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/Thread.tsx +62 -0
  191. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/ThreadItem.tsx +68 -0
  192. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/index.tsx +62 -2
  193. package/src/app/(main)/chat/(workspace)/@conversation/features/ThreadHydration.tsx +47 -0
  194. package/src/app/(main)/chat/(workspace)/@portal/_layout/Desktop.tsx +3 -2
  195. package/src/app/(main)/chat/(workspace)/@portal/_layout/Mobile.tsx +47 -6
  196. package/src/app/(main)/chat/(workspace)/@topic/features/SkeletonList.tsx +3 -2
  197. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ByTimeMode/index.tsx +10 -3
  198. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/FlatMode/index.tsx +1 -1
  199. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/Content.tsx +164 -0
  200. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/index.tsx +98 -0
  201. package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicItem.tsx → TopicItem/index.tsx} +33 -22
  202. package/src/app/(main)/chat/(workspace)/_layout/Desktop/Portal.tsx +12 -5
  203. package/src/app/(main)/chat/(workspace)/_layout/Mobile/index.tsx +1 -2
  204. package/src/const/message.ts +2 -0
  205. package/src/const/settings/systemAgent.ts +1 -0
  206. package/src/database/server/migrations/0012_add_thread.sql +39 -0
  207. package/src/database/server/migrations/meta/0012_snapshot.json +3671 -0
  208. package/src/database/server/migrations/meta/_journal.json +7 -0
  209. package/src/database/server/models/_template.ts +2 -2
  210. package/src/database/server/models/message.ts +1 -0
  211. package/src/database/server/models/thread.ts +79 -0
  212. package/src/database/server/schemas/lobechat/message.ts +2 -1
  213. package/src/database/server/schemas/lobechat/relations.ts +13 -1
  214. package/src/database/server/schemas/lobechat/topic.ts +30 -1
  215. package/src/database/server/utils/idGenerator.ts +1 -0
  216. package/src/features/ChatInput/ActionBar/Token/TokenTag.tsx +6 -4
  217. package/src/features/ChatInput/ActionBar/Token/index.tsx +24 -5
  218. package/src/features/ChatInput/ActionBar/config.ts +3 -2
  219. package/src/features/ChatInput/Desktop/index.tsx +15 -7
  220. package/src/features/ChatInput/Mobile/index.tsx +4 -4
  221. package/src/features/Conversation/Actions/Assistant.tsx +24 -5
  222. package/src/features/Conversation/Actions/User.tsx +21 -4
  223. package/src/features/Conversation/Actions/index.ts +1 -66
  224. package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/index.tsx +3 -1
  225. package/src/features/Conversation/Messages/{Tool/index.tsx → Assistant/ToolCallItem/Tool.tsx} +10 -11
  226. package/src/features/Conversation/Messages/Assistant/ToolCallItem/index.tsx +5 -3
  227. package/src/features/Conversation/Messages/Assistant/index.tsx +22 -14
  228. package/src/features/Conversation/Messages/index.ts +0 -2
  229. package/src/features/Conversation/components/AutoScroll.tsx +1 -1
  230. package/src/features/Conversation/components/ChatItem/ActionsBar.tsx +79 -5
  231. package/src/features/Conversation/components/ChatItem/InPortalThreadContext.ts +3 -0
  232. package/src/features/Conversation/components/ChatItem/index.tsx +16 -5
  233. package/src/features/Conversation/components/MarkdownElements/LobeArtifact/Render/index.tsx +9 -1
  234. package/src/features/Conversation/components/ThreadDivider/index.tsx +19 -0
  235. package/src/features/Conversation/hooks/useChatListActionsBar.tsx +19 -4
  236. package/src/features/Portal/Thread/Chat/ChatInput/Footer.tsx +90 -0
  237. package/src/features/Portal/Thread/Chat/ChatInput/TextArea.tsx +30 -0
  238. package/src/features/Portal/Thread/Chat/ChatInput/index.tsx +66 -0
  239. package/src/features/Portal/Thread/Chat/ChatInput/useSend.ts +50 -0
  240. package/src/features/Portal/Thread/Chat/ChatItem.tsx +62 -0
  241. package/src/features/Portal/Thread/Chat/ChatList.tsx +49 -0
  242. package/src/features/Portal/Thread/Chat/ThreadDivider/index.tsx +19 -0
  243. package/src/features/Portal/Thread/Chat/index.tsx +28 -0
  244. package/src/features/Portal/Thread/Header/Active.tsx +35 -0
  245. package/src/features/Portal/Thread/Header/New.tsx +37 -0
  246. package/src/features/Portal/Thread/Header/Title.tsx +18 -0
  247. package/src/features/Portal/Thread/Header/index.tsx +20 -0
  248. package/src/features/Portal/Thread/hook.ts +8 -0
  249. package/src/features/Portal/Thread/index.ts +12 -0
  250. package/src/features/Portal/router.tsx +2 -1
  251. package/src/hooks/useFetchTopics.ts +7 -1
  252. package/src/locales/default/chat.ts +8 -1
  253. package/src/locales/default/common.ts +3 -0
  254. package/src/locales/default/index.ts +2 -0
  255. package/src/locales/default/setting.ts +5 -0
  256. package/src/locales/default/thread.ts +5 -0
  257. package/src/server/routers/lambda/index.ts +2 -0
  258. package/src/server/routers/lambda/thread.ts +83 -0
  259. package/src/services/thread.ts +54 -0
  260. package/src/store/chat/initialState.ts +3 -0
  261. package/src/store/chat/selectors.ts +2 -1
  262. package/src/store/chat/slices/aiChat/actions/__tests__/generateAIChat.test.ts +1 -1
  263. package/src/store/chat/slices/aiChat/actions/__tests__/rag.test.ts +1 -1
  264. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +31 -8
  265. package/src/store/chat/slices/aiChat/actions/rag.ts +1 -1
  266. package/src/store/chat/slices/message/selectors.test.ts +3 -3
  267. package/src/store/chat/slices/message/selectors.ts +50 -29
  268. package/src/store/chat/slices/plugin/action.ts +26 -8
  269. package/src/store/chat/slices/portal/action.ts +1 -0
  270. package/src/store/chat/slices/portal/initialState.ts +1 -0
  271. package/src/store/chat/slices/portal/selectors/thread.ts +17 -0
  272. package/src/store/chat/slices/portal/selectors.ts +2 -0
  273. package/src/store/chat/slices/thread/action.ts +326 -0
  274. package/src/store/chat/slices/thread/initialState.ts +34 -0
  275. package/src/store/chat/slices/thread/reducer.ts +48 -0
  276. package/src/store/chat/slices/thread/selectors/index.ts +202 -0
  277. package/src/store/chat/slices/thread/selectors/util.ts +22 -0
  278. package/src/store/chat/slices/topic/action.ts +5 -1
  279. package/src/store/chat/store.ts +5 -2
  280. package/src/store/global/initialState.ts +4 -0
  281. package/src/store/global/selectors.ts +4 -0
  282. package/src/store/user/slices/settings/selectors/systemAgent.ts +2 -0
  283. package/src/types/message/index.ts +17 -1
  284. package/src/types/topic/index.ts +1 -0
  285. package/src/types/topic/thread.ts +42 -0
  286. package/src/types/user/settings/systemAgent.ts +1 -0
  287. package/src/app/(main)/chat/(workspace)/@portal/features/Header.tsx +0 -11
  288. package/src/app/(main)/chat/(workspace)/_layout/Mobile/PortalModal.tsx +0 -35
  289. /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/SendMore.tsx +0 -0
  290. /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/ShortcutHint.tsx +0 -0
  291. /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{DefaultContent.tsx → TopicItem/DefaultContent.tsx} +0 -0
  292. /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicContent.tsx → TopicItem/TopicContent.tsx} +0 -0
  293. /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/PluginResultJSON.tsx +0 -0
  294. /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/Settings.tsx +0 -0
  295. /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/style.ts +0 -0
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Model używany do optymalizacji zapytań użytkowników",
390
390
  "title": "Przekształcenie zapytań w bazie wiedzy"
391
391
  },
392
+ "thread": {
393
+ "label": "Model do nazywania podtematów",
394
+ "modelDesc": "Model używany do automatycznego zmieniania nazw podtematów",
395
+ "title": "Automatyczne nazywanie podtematów"
396
+ },
392
397
  "title": "Asystent Systemowy",
393
398
  "topic": {
394
399
  "label": "Model nazewnictwa tematów",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Zaraz usuniesz ten wątek, po usunięciu nie będzie można go przywrócić, proszę postępować ostrożnie."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Assistente",
9
9
  "artifact": {
10
10
  "generating": "Gerando",
11
+ "inThread": "Não é possível visualizar no subtópico, por favor, mude para a área de conversa principal.",
11
12
  "thinking": "Pensando",
12
13
  "thought": "Processo de pensamento",
13
14
  "unknownTitle": "Obra sem título"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Excluir e Regenerar",
69
+ "deleteDisabledByThreads": "Existem subtópicos, não é possível deletar.",
68
70
  "regenerate": "Regenerar"
69
71
  },
70
72
  "newAgent": "Novo Assistente",
@@ -121,6 +123,11 @@
121
123
  "loading": "Reconhecendo...",
122
124
  "prettifying": "Embelezando..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Subtópico",
128
+ "threadMessageCount": "{{messageCount}} mensagens",
129
+ "title": "Subtópico"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Mensagens de bate-papo",
126
133
  "historySummary": "Resumo Histórico",
@@ -16,6 +16,8 @@
16
16
  "back": "Voltar",
17
17
  "batchDelete": "Excluir em massa",
18
18
  "blog": "Blog de Produtos",
19
+ "branching": "Criar subtópico",
20
+ "branchingDisable": "A funcionalidade de \"subtópico\" está disponível apenas na versão do servidor. Se precisar dessa funcionalidade, mude para o modo de implantação no servidor ou use o LobeChat Cloud.",
19
21
  "cancel": "Cancelar",
20
22
  "changelog": "Registro de alterações",
21
23
  "close": "Fechar",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 é a mais recente série do modelo Qwen, capaz de superar modelos de código aberto de tamanho equivalente e até mesmo modelos de maior escala. O Qwen2 7B obteve vantagens significativas em várias avaliações, especialmente em compreensão de código e chinês."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct suporta 16k de contexto, gerando textos longos com mais de 8K. Suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. O conhecimento do modelo aumentou consideravelmente, e suas habilidades em codificação e matemática melhoraram muito, com suporte a mais de 29 idiomas."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large é o maior modelo MoE de arquitetura Transformer open source da indústria, com um total de 389 bilhões de parâmetros e 52 bilhões de parâmetros ativados."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, mantendo as excelentes habilidades linguísticas do modelo original, aumentou significativamente suas capacidades de lógica matemática e codificação através de treinamento incremental com 500 bilhões de tokens de alta qualidade."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue, suportando funcionalidades abrangentes, incluindo completude e geração de código, interpretador de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo diversos cenários de desenvolvimento de software. É um modelo de geração de código de ponta com menos de 10B de parâmetros."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Um novo modelo de código aberto que combina capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B é um modelo de linguagem de código, treinado com 20 trilhões de dados, dos quais 87% são código e 13% são em chinês e inglês. O modelo introduz uma janela de 16K e tarefas de preenchimento, oferecendo funcionalidades de completude de código e preenchimento de fragmentos em nível de projeto."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "O Gemini Exp 1114 é o mais recente modelo experimental de IA multimodal da Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a expansão eficiente de várias tarefas."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 é o mais recente modelo experimental de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente em várias tarefas."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio, código e conhecimento. Também possui navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio de texto longo. Suporta 26 idiomas, incluindo japonês, coreano e alemão."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível."
508
532
  },
@@ -22,6 +22,9 @@
22
22
  "fireworksai": {
23
23
  "description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues."
24
24
  },
25
+ "giteeai": {
26
+ "description": "A API Serverless do Gitee AI fornece aos desenvolvedores de IA um serviço de API de inferência de modelos grandes prontos para uso."
27
+ },
25
28
  "github": {
26
29
  "description": "Com os Modelos do GitHub, os desenvolvedores podem se tornar engenheiros de IA e construir com os principais modelos de IA da indústria."
27
30
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Modelo designado para otimizar as perguntas dos usuários",
390
390
  "title": "Reescrita de perguntas do banco de dados"
391
391
  },
392
+ "thread": {
393
+ "label": "Modelo de Nomeação de Subtópicos",
394
+ "modelDesc": "Modelo designado para a renomeação automática de subtópicos",
395
+ "title": "Nomeação Automática de Subtópicos"
396
+ },
392
397
  "title": "Assistente do Sistema",
393
398
  "topic": {
394
399
  "label": "Modelo de Nomeação de Tópicos",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Você está prestes a remover este subtópico. Após a exclusão, não será possível recuperá-lo. Por favor, proceda com cautela."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Ассистент",
9
9
  "artifact": {
10
10
  "generating": "Генерация",
11
+ "inThread": "Невозможно просмотреть в подтеме, переключитесь на основную область диалога",
11
12
  "thinking": "В процессе размышлений",
12
13
  "thought": "Процесс мышления",
13
14
  "unknownTitle": "Безымянное произведение"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Удалить и пересоздать",
69
+ "deleteDisabledByThreads": "Существуют подтемы, удаление невозможно",
68
70
  "regenerate": "Пересоздать"
69
71
  },
70
72
  "newAgent": "Создать помощника",
@@ -121,6 +123,11 @@
121
123
  "loading": "Распознавание...",
122
124
  "prettifying": "Форматирование..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Подтема",
128
+ "threadMessageCount": "{{messageCount}} сообщений",
129
+ "title": "Подтема"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Чаты",
126
133
  "historySummary": "Историческое резюме",
@@ -16,6 +16,8 @@
16
16
  "back": "Назад",
17
17
  "batchDelete": "Пакетное удаление",
18
18
  "blog": "Блог о продуктах",
19
+ "branching": "Создать подтему",
20
+ "branchingDisable": "Функция «Подтема» доступна только в серверной версии. Если вам нужна эта функция, переключитесь на серверный режим развертывания или используйте LobeChat Cloud.",
19
21
  "cancel": "Отмена",
20
22
  "changelog": "История изменений",
21
23
  "close": "Закрыть",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 — это последняя серия моделей Qwen, способная превосходить лучшие открытые модели сопоставимого размера и даже более крупные модели. Qwen2 7B демонстрирует значительные преимущества в нескольких тестах, особенно в понимании кода и китайского языка."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct поддерживает контекст до 16k, генерируя длинные тексты более 8K. Поддерживает вызовы функций и бесшовное взаимодействие с внешними системами, что значительно повышает гибкость и масштабируемость. Знания модели значительно увеличены, а способности в кодировании и математике значительно улучшены, поддерживает более 29 языков."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large — это крупнейшая в отрасли открытая модель Transformer архитектуры MoE с общим количеством параметров 389 миллиардов и 52 миллиарда активных параметров."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, сохраняя выдающиеся универсальные языковые способности оригинальной серии моделей, значительно улучшила математическую логику и способности к кодированию благодаря инкрементальному обучению на 500 миллиардов высококачественных токенов."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B — это многоязычная модель генерации кода, поддерживающая полный спектр функций, включая автозаполнение и генерацию кода, интерпретатор кода, веб-поиск, вызовы функций и вопросы по коду на уровне репозитория, охватывающая различные сценарии разработки программного обеспечения. Это одна из лучших моделей генерации кода с количеством параметров менее 10B."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B — это модель языкового кодирования, обученная на 20 триллионах данных, из которых 87% составляют код, а 13% — китайский и английский языки. Модель использует размер окна 16K и задачи заполнения пропусков, предоставляя функции автозаполнения кода и заполнения фрагментов на уровне проектов."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114 — это новейшая экспериментальная многомодальная ИИ модель от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, изображенческие и видеовходы, что позволяет эффективно расширять применение для различных задач."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 — это последняя экспериментальная многомодальная AI модель от Google, обладающая высокой скоростью обработки, поддерживающая текстовые, графические и видеовходы, что делает её эффективной для масштабирования различных задач."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat демонстрирует высокую производительность в семантике, математике, логическом мышлении, кодировании и знаниях. Также поддерживает веб-браузинг, выполнение кода, вызовы пользовательских инструментов и длинное текстовое рассуждение. Поддерживает 26 языков, включая японский, корейский и немецкий."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену."
508
532
  },
@@ -22,6 +22,9 @@
22
22
  "fireworksai": {
23
23
  "description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации."
24
24
  },
25
+ "giteeai": {
26
+ "description": "API Serverless от Gitee AI предоставляет разработчикам AI сервисы API для рассуждений о больших моделях с открытым доступом."
27
+ },
25
28
  "github": {
26
29
  "description": "С помощью моделей GitHub разработчики могут стать инженерами ИИ и создавать с использованием ведущих моделей ИИ в отрасли."
27
30
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Модель, предназначенная для оптимизации вопросов пользователей",
390
390
  "title": "Переписывание вопросов базы знаний"
391
391
  },
392
+ "thread": {
393
+ "label": "Модель именования подтем",
394
+ "modelDesc": "Модель, используемая для автоматического переименования подтем",
395
+ "title": "Автоматическое именование подтем"
396
+ },
392
397
  "title": "Системный агент",
393
398
  "topic": {
394
399
  "label": "Модель именования тем",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Вы собираетесь удалить эту под-тему. После удаления восстановить её будет невозможно, пожалуйста, действуйте осторожно."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Asistan",
9
9
  "artifact": {
10
10
  "generating": "Üretiliyor",
11
+ "inThread": "Alt konu içinde görüntülenemiyor, lütfen ana konuşma alanına geçin",
11
12
  "thinking": "Düşünülüyor",
12
13
  "thought": "Düşünce Süreci",
13
14
  "unknownTitle": "İsimsiz Eser"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Sil ve Yeniden Oluştur",
69
+ "deleteDisabledByThreads": "Alt konular mevcut, silinemez",
68
70
  "regenerate": "Yeniden Oluştur"
69
71
  },
70
72
  "newAgent": "Yeni Asistan",
@@ -121,6 +123,11 @@
121
123
  "loading": "Tanımlanıyor...",
122
124
  "prettifying": "İyileştiriliyor..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Alt konu",
128
+ "threadMessageCount": "{{messageCount}} mesaj",
129
+ "title": "Alt konu"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Sohbetler",
126
133
  "historySummary": "Tarih Özeti",
@@ -16,6 +16,8 @@
16
16
  "back": "Geri",
17
17
  "batchDelete": "Toplu Sil",
18
18
  "blog": "Ürün Blogu",
19
+ "branching": "Alt konu oluştur",
20
+ "branchingDisable": "«Alt konu» özelliği yalnızca sunucu sürümünde mevcuttur. Bu özelliği kullanmak için lütfen sunucu dağıtım moduna geçin veya LobeChat Cloud'u kullanın.",
19
21
  "cancel": "İptal",
20
22
  "changelog": "Changelog",
21
23
  "close": "Kapat",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2, Qwen modelinin en yeni serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct, 16k bağlamı destekler ve 8K'dan uzun metinler üretebilir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim sağlar, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Modelin bilgisi belirgin şekilde artmış ve kodlama ile matematik yetenekleri büyük ölçüde geliştirilmiştir, 29'dan fazla dil desteği sunmaktadır."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large, sektördeki en büyük açık kaynaklı Transformer mimarisi MoE modelidir ve toplam 389 milyar parametre ile 52 milyar etkin parametreye sahiptir."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, orijinal model serisinin mükemmel genel dil yeteneklerini korurken, 500 milyar yüksek kaliteli token ile artımlı eğitim sayesinde matematiksel mantık ve kodlama yeteneklerini büyük ölçüde artırmıştır."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B, çok dilli kod üretim modeli olup, kod tamamlama ve üretimi, kod yorumlayıcı, web arama, fonksiyon çağrısı, depo düzeyinde kod soru-cevap gibi kapsamlı işlevleri destekler ve yazılım geliştirme için çeşitli senaryoları kapsar. 10B'den az parametreye sahip en iyi kod üretim modelidir."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleri ile daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazım görevleri, talimat takibi gibi birçok alanda büyük iyileştirmeler sağlamıştır."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B, 20 trilyon veri ile eğitilmiş bir kod dili modelidir. Bunun %87'si kod, %13'ü ise Çince ve İngilizce dillerindendir. Model, 16K pencere boyutu ve boşluk doldurma görevini tanıtarak proje düzeyinde kod tamamlama ve parça doldurma işlevi sunmaktadır."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114, Google'ın en son deneysel çok modlu AI modeli olup, hızlı işleme yeteneğine sahip, metin, görüntü ve video girişlerini desteklemekte ve çeşitli görevlerde verimli bir şekilde ölçeklenmektedir."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121, Google'un en yeni deneysel çok modlu AI modelidir. Hızlı işlem yeteneğine sahip olup, metin, görüntü ve video girişi destekler ve çeşitli görevler için verimli bir şekilde ölçeklenebilir."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat, anlam, matematik, akıl yürütme, kod ve bilgi gibi birçok alanda yüksek performans göstermektedir. Ayrıca web tarayıcı, kod yürütme, özel araç çağrıları ve uzun metin akıl yürütme yeteneklerine sahiptir. Japonca, Korece, Almanca dahil olmak üzere 26 dil desteği sunmaktadır."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar."
508
532
  },
@@ -22,6 +22,9 @@
22
22
  "fireworksai": {
23
23
  "description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır."
24
24
  },
25
+ "giteeai": {
26
+ "description": "Gitee AI'nin Sunucusuz API, AI geliştiricileri kutusun dışında büyük modeller infeksiyon API hizmetini sağlar."
27
+ },
25
28
  "github": {
26
29
  "description": "GitHub Modelleri ile geliştiriciler, AI mühendisleri olabilir ve sektörün önde gelen AI modelleri ile inşa edebilirler."
27
30
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Kullanıcı sorularını optimize etmek için kullanılan model",
390
390
  "title": "Bilgi Tabanı Soru Yeniden Yazımı"
391
391
  },
392
+ "thread": {
393
+ "label": "Alt konu adlandırma modeli",
394
+ "modelDesc": "Alt konuların otomatik olarak yeniden adlandırılması için kullanılan model",
395
+ "title": "Alt konu otomatik adlandırma"
396
+ },
392
397
  "title": "Sistem Asistanı",
393
398
  "topic": {
394
399
  "label": "Konu Adlandırma Modeli",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Bu alt konuyu silmek üzeresiniz. Silindikten sonra geri alınamaz, lütfen dikkatli olun."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "Trợ lý",
9
9
  "artifact": {
10
10
  "generating": "Đang tạo",
11
+ "inThread": "Không thể xem trong chủ đề con, vui lòng chuyển sang khu vực đối thoại chính để mở",
11
12
  "thinking": "Đang suy nghĩ",
12
13
  "thought": "Quá trình suy nghĩ",
13
14
  "unknownTitle": "Tác phẩm chưa được đặt tên"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "Xóa và tạo lại",
69
+ "deleteDisabledByThreads": "Có chủ đề con, không thể xóa",
68
70
  "regenerate": "Tạo lại"
69
71
  },
70
72
  "newAgent": "Tạo trợ lý mới",
@@ -121,6 +123,11 @@
121
123
  "loading": "Đang nhận dạng...",
122
124
  "prettifying": "Đang tinh chỉnh..."
123
125
  },
126
+ "thread": {
127
+ "divider": "Chủ đề con",
128
+ "threadMessageCount": "{{messageCount}} tin nhắn",
129
+ "title": "Chủ đề con"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "Tin nhắn trò chuyện",
126
133
  "historySummary": "Tóm tắt lịch sử",
@@ -16,6 +16,8 @@
16
16
  "back": "Quay lại",
17
17
  "batchDelete": "Xóa hàng loạt",
18
18
  "blog": "Blog sản phẩm",
19
+ "branching": "Tạo chủ đề con",
20
+ "branchingDisable": "Chức năng «Chủ đề con» chỉ có sẵn trong phiên bản máy chủ. Nếu bạn cần chức năng này, hãy chuyển sang chế độ triển khai máy chủ hoặc sử dụng LobeChat Cloud.",
19
21
  "cancel": "Hủy",
20
22
  "changelog": "Nhật ký cập nhật",
21
23
  "close": "Đóng",
@@ -176,6 +176,15 @@
176
176
  "Qwen/Qwen2.5-Math-72B-Instruct": {
177
177
  "description": "Qwen2.5-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó."
178
178
  },
179
+ "Qwen2-72B-Instruct": {
180
+ "description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ."
181
+ },
182
+ "Qwen2-7B-Instruct": {
183
+ "description": "Qwen2 là dòng mô hình mới nhất của Qwen, có khả năng vượt qua các mô hình mã nguồn mở cùng quy mô hoặc thậm chí lớn hơn, Qwen2 7B đạt được lợi thế đáng kể trong nhiều bài kiểm tra, đặc biệt là trong việc hiểu mã và tiếng Trung."
184
+ },
185
+ "Qwen2.5-72B-Instruct": {
186
+ "description": "Qwen2.5-72B-Instruct hỗ trợ ngữ cảnh 16k, tạo ra văn bản dài hơn 8K. Hỗ trợ gọi hàm và tương tác liền mạch với hệ thống bên ngoài, nâng cao đáng kể tính linh hoạt và khả năng mở rộng. Kiến thức của mô hình đã tăng lên rõ rệt và khả năng mã hóa cũng như toán học được cải thiện đáng kể, hỗ trợ hơn 29 ngôn ngữ."
187
+ },
179
188
  "SenseChat": {
180
189
  "description": "Mô hình phiên bản cơ bản (V4), độ dài ngữ cảnh 4K, khả năng tổng quát mạnh mẽ."
181
190
  },
@@ -206,6 +215,9 @@
206
215
  "Tencent/Hunyuan-A52B-Instruct": {
207
216
  "description": "Hunyuan-Large là mô hình MoE kiến trúc Transformer mã nguồn mở lớn nhất trong ngành, với tổng số tham số là 3890 tỷ và 52 tỷ tham số kích hoạt."
208
217
  },
218
+ "Yi-34B-Chat": {
219
+ "description": "Yi-1.5-34B, trong khi vẫn giữ được khả năng ngôn ngữ chung xuất sắc của dòng mô hình gốc, đã tăng cường đào tạo với 500 tỷ token chất lượng cao, nâng cao đáng kể khả năng logic toán học và mã."
220
+ },
209
221
  "abab5.5-chat": {
210
222
  "description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn."
211
223
  },
@@ -368,6 +380,9 @@
368
380
  "codegeex-4": {
369
381
  "description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển."
370
382
  },
383
+ "codegeex4-all-9b": {
384
+ "description": "CodeGeeX4-ALL-9B là một mô hình tạo mã đa ngôn ngữ, hỗ trợ đầy đủ các chức năng như hoàn thành và tạo mã, trình giải thích mã, tìm kiếm trên mạng, gọi hàm, và hỏi đáp mã cấp kho, bao phủ nhiều tình huống trong phát triển phần mềm. Đây là mô hình tạo mã hàng đầu với số tham số dưới 10B."
385
+ },
371
386
  "codegemma": {
372
387
  "description": "CodeGemma là mô hình ngôn ngữ nhẹ chuyên dụng cho các nhiệm vụ lập trình khác nhau, hỗ trợ lặp lại và tích hợp nhanh chóng."
373
388
  },
@@ -422,6 +437,9 @@
422
437
  "deepseek-chat": {
423
438
  "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều khía cạnh như nhiệm vụ viết, theo dõi chỉ dẫn."
424
439
  },
440
+ "deepseek-coder-33B-instruct": {
441
+ "description": "DeepSeek Coder 33B là một mô hình ngôn ngữ mã, được đào tạo trên 20 triệu tỷ dữ liệu, trong đó 87% là mã và 13% là ngôn ngữ Trung và Anh. Mô hình này giới thiệu kích thước cửa sổ 16K và nhiệm vụ điền chỗ trống, cung cấp chức năng hoàn thành mã và điền đoạn mã ở cấp độ dự án."
442
+ },
425
443
  "deepseek-coder-v2": {
426
444
  "description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo."
427
445
  },
@@ -476,6 +494,9 @@
476
494
  "gemini-exp-1114": {
477
495
  "description": "Gemini Exp 1114 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp với việc mở rộng hiệu quả cho nhiều nhiệm vụ."
478
496
  },
497
+ "gemini-exp-1121": {
498
+ "description": "Gemini Exp 1121 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh chóng, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ."
499
+ },
479
500
  "gemma-7b-it": {
480
501
  "description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
481
502
  },
@@ -503,6 +524,9 @@
503
524
  "glm-4-0520": {
504
525
  "description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các nhiệm vụ phức tạp và đa dạng, thể hiện xuất sắc."
505
526
  },
527
+ "glm-4-9b-chat": {
528
+ "description": "GLM-4-9B-Chat thể hiện hiệu suất cao trong nhiều lĩnh vực như ngữ nghĩa, toán học, suy luận, mã và kiến thức. Nó còn có khả năng duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài. Hỗ trợ 26 ngôn ngữ, bao gồm tiếng Nhật, tiếng Hàn và tiếng Đức."
529
+ },
506
530
  "glm-4-air": {
507
531
  "description": "GLM-4-Air là phiên bản có giá trị sử dụng cao, hiệu suất gần giống GLM-4, cung cấp tốc độ nhanh và giá cả phải chăng."
508
532
  },
@@ -22,6 +22,9 @@
22
22
  "fireworksai": {
23
23
  "description": "Fireworks AI là nhà cung cấp dịch vụ mô hình ngôn ngữ cao cấp hàng đầu, tập trung vào gọi chức năng và xử lý đa phương thức. Mô hình mới nhất của họ, Firefunction V2, dựa trên Llama-3, được tối ưu hóa cho gọi chức năng, đối thoại và tuân theo chỉ dẫn. Mô hình ngôn ngữ hình ảnh FireLLaVA-13B hỗ trợ đầu vào hỗn hợp hình ảnh và văn bản. Các mô hình đáng chú ý khác bao gồm dòng Llama và dòng Mixtral, cung cấp hỗ trợ cho việc tuân theo và tạo ra chỉ dẫn đa ngôn ngữ hiệu quả."
24
24
  },
25
+ "giteeai": {
26
+ "description": "Serverless API của Gitee AI cung cấp các dịch vụ API lý luận mô hình lớn cho các nhà phát triển AI."
27
+ },
25
28
  "github": {
26
29
  "description": "Với GitHub Models, các nhà phát triển có thể trở thành kỹ sư AI và xây dựng với các mô hình AI hàng đầu trong ngành."
27
30
  },
@@ -389,6 +389,11 @@
389
389
  "modelDesc": "Mô hình được chỉ định để tối ưu hóa câu hỏi của người dùng",
390
390
  "title": "Viết lại câu hỏi trong kho kiến thức"
391
391
  },
392
+ "thread": {
393
+ "label": "Mô hình đặt tên chủ đề phụ",
394
+ "modelDesc": "Mô hình được chỉ định để tự động đổi tên chủ đề phụ",
395
+ "title": "Tự động đặt tên chủ đề phụ"
396
+ },
392
397
  "title": "Trợ lý hệ thống",
393
398
  "topic": {
394
399
  "label": "Mô hình đặt tên chủ đề",
@@ -0,0 +1,5 @@
1
+ {
2
+ "actions": {
3
+ "confirmRemoveThread": "Bạn sắp xóa chủ đề con này, sau khi xóa sẽ không thể khôi phục, xin hãy cẩn thận khi thực hiện."
4
+ }
5
+ }
@@ -8,6 +8,7 @@
8
8
  "agents": "助手",
9
9
  "artifact": {
10
10
  "generating": "生成中",
11
+ "inThread": "子话题中无法查看,请切换到主对话区打开",
11
12
  "thinking": "思考中",
12
13
  "thought": "思考过程",
13
14
  "unknownTitle": "未命名作品"
@@ -65,6 +66,7 @@
65
66
  },
66
67
  "messageAction": {
67
68
  "delAndRegenerate": "删除并重新生成",
69
+ "deleteDisabledByThreads": "存在子话题,不能删除",
68
70
  "regenerate": "重新生成"
69
71
  },
70
72
  "newAgent": "新建助手",
@@ -121,6 +123,11 @@
121
123
  "loading": "识别中...",
122
124
  "prettifying": "润色中..."
123
125
  },
126
+ "thread": {
127
+ "divider": "子话题",
128
+ "threadMessageCount": "{{messageCount}} 条消息",
129
+ "title": "子话题"
130
+ },
124
131
  "tokenDetails": {
125
132
  "chats": "会话消息",
126
133
  "historySummary": "历史总结",
@@ -16,6 +16,8 @@
16
16
  "back": "返回",
17
17
  "batchDelete": "批量删除",
18
18
  "blog": "产品博客",
19
+ "branching": "创建子话题",
20
+ "branchingDisable": "「子话题」功能仅服务端版本可用,如需该功能,请切换到服务端部署模式或使用 LobeChat Cloud",
19
21
  "cancel": "取消",
20
22
  "changelog": "更新日志",
21
23
  "close": "关闭",