@lobehub/chat 1.33.5 → 1.34.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +7 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/models.json +24 -0
- package/locales/ar/setting.json +5 -0
- package/locales/ar/thread.json +5 -0
- package/locales/bg-BG/chat.json +7 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/models.json +24 -0
- package/locales/bg-BG/setting.json +5 -0
- package/locales/bg-BG/thread.json +5 -0
- package/locales/de-DE/chat.json +7 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/models.json +24 -0
- package/locales/de-DE/setting.json +5 -0
- package/locales/de-DE/thread.json +5 -0
- package/locales/en-US/chat.json +7 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/models.json +24 -0
- package/locales/en-US/setting.json +5 -0
- package/locales/en-US/thread.json +5 -0
- package/locales/es-ES/chat.json +7 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/models.json +24 -0
- package/locales/es-ES/setting.json +5 -0
- package/locales/es-ES/thread.json +5 -0
- package/locales/fa-IR/chat.json +7 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/models.json +24 -0
- package/locales/fa-IR/setting.json +5 -0
- package/locales/fa-IR/thread.json +5 -0
- package/locales/fr-FR/chat.json +7 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/models.json +24 -0
- package/locales/fr-FR/setting.json +5 -0
- package/locales/fr-FR/thread.json +5 -0
- package/locales/it-IT/chat.json +7 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/models.json +24 -0
- package/locales/it-IT/setting.json +5 -0
- package/locales/it-IT/thread.json +5 -0
- package/locales/ja-JP/chat.json +7 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/models.json +24 -0
- package/locales/ja-JP/setting.json +5 -0
- package/locales/ja-JP/thread.json +5 -0
- package/locales/ko-KR/chat.json +7 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/models.json +24 -0
- package/locales/ko-KR/setting.json +5 -0
- package/locales/ko-KR/thread.json +5 -0
- package/locales/nl-NL/chat.json +7 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/models.json +24 -0
- package/locales/nl-NL/setting.json +5 -0
- package/locales/nl-NL/thread.json +5 -0
- package/locales/pl-PL/chat.json +7 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/models.json +24 -0
- package/locales/pl-PL/setting.json +5 -0
- package/locales/pl-PL/thread.json +5 -0
- package/locales/pt-BR/chat.json +7 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/models.json +24 -0
- package/locales/pt-BR/setting.json +5 -0
- package/locales/pt-BR/thread.json +5 -0
- package/locales/ru-RU/chat.json +7 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/models.json +24 -0
- package/locales/ru-RU/setting.json +5 -0
- package/locales/ru-RU/thread.json +5 -0
- package/locales/tr-TR/chat.json +7 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/models.json +24 -0
- package/locales/tr-TR/setting.json +5 -0
- package/locales/tr-TR/thread.json +5 -0
- package/locales/vi-VN/chat.json +7 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/models.json +24 -0
- package/locales/vi-VN/setting.json +5 -0
- package/locales/vi-VN/thread.json +5 -0
- package/locales/zh-CN/chat.json +7 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/models.json +24 -0
- package/locales/zh-CN/setting.json +5 -0
- package/locales/zh-CN/thread.json +5 -0
- package/locales/zh-TW/chat.json +7 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/models.json +24 -0
- package/locales/zh-TW/setting.json +5 -0
- package/locales/zh-TW/thread.json +5 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatHydration/index.tsx +11 -2
- package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/index.tsx +7 -9
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +7 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/Thread.tsx +62 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/ThreadItem.tsx +68 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/index.tsx +62 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ThreadHydration.tsx +47 -0
- package/src/app/(main)/chat/(workspace)/@portal/_layout/Desktop.tsx +3 -2
- package/src/app/(main)/chat/(workspace)/@portal/_layout/Mobile.tsx +47 -6
- package/src/app/(main)/chat/(workspace)/@topic/features/SkeletonList.tsx +3 -2
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ByTimeMode/index.tsx +10 -3
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/FlatMode/index.tsx +1 -1
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/Content.tsx +164 -0
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/index.tsx +98 -0
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicItem.tsx → TopicItem/index.tsx} +33 -22
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/Portal.tsx +12 -5
- package/src/app/(main)/chat/(workspace)/_layout/Mobile/index.tsx +1 -2
- package/src/const/message.ts +2 -0
- package/src/const/settings/systemAgent.ts +1 -0
- package/src/database/server/migrations/0012_add_thread.sql +39 -0
- package/src/database/server/migrations/meta/0012_snapshot.json +3671 -0
- package/src/database/server/migrations/meta/_journal.json +7 -0
- package/src/database/server/models/_template.ts +2 -2
- package/src/database/server/models/message.ts +1 -0
- package/src/database/server/models/thread.ts +79 -0
- package/src/database/server/schemas/lobechat/message.ts +2 -1
- package/src/database/server/schemas/lobechat/relations.ts +13 -1
- package/src/database/server/schemas/lobechat/topic.ts +30 -1
- package/src/database/server/utils/idGenerator.ts +1 -0
- package/src/features/ChatInput/ActionBar/Token/TokenTag.tsx +6 -4
- package/src/features/ChatInput/ActionBar/Token/index.tsx +24 -5
- package/src/features/ChatInput/ActionBar/config.ts +3 -2
- package/src/features/ChatInput/Desktop/index.tsx +15 -7
- package/src/features/ChatInput/Mobile/index.tsx +4 -4
- package/src/features/Conversation/Actions/Assistant.tsx +24 -5
- package/src/features/Conversation/Actions/User.tsx +21 -4
- package/src/features/Conversation/Actions/index.ts +1 -66
- package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/index.tsx +3 -1
- package/src/features/Conversation/Messages/{Tool/index.tsx → Assistant/ToolCallItem/Tool.tsx} +10 -11
- package/src/features/Conversation/Messages/Assistant/ToolCallItem/index.tsx +5 -3
- package/src/features/Conversation/Messages/Assistant/index.tsx +22 -14
- package/src/features/Conversation/Messages/index.ts +0 -2
- package/src/features/Conversation/components/AutoScroll.tsx +1 -1
- package/src/features/Conversation/components/ChatItem/ActionsBar.tsx +79 -5
- package/src/features/Conversation/components/ChatItem/InPortalThreadContext.ts +3 -0
- package/src/features/Conversation/components/ChatItem/index.tsx +16 -5
- package/src/features/Conversation/components/MarkdownElements/LobeArtifact/Render/index.tsx +9 -1
- package/src/features/Conversation/components/ThreadDivider/index.tsx +19 -0
- package/src/features/Conversation/hooks/useChatListActionsBar.tsx +19 -4
- package/src/features/Portal/Thread/Chat/ChatInput/Footer.tsx +90 -0
- package/src/features/Portal/Thread/Chat/ChatInput/TextArea.tsx +30 -0
- package/src/features/Portal/Thread/Chat/ChatInput/index.tsx +66 -0
- package/src/features/Portal/Thread/Chat/ChatInput/useSend.ts +50 -0
- package/src/features/Portal/Thread/Chat/ChatItem.tsx +62 -0
- package/src/features/Portal/Thread/Chat/ChatList.tsx +49 -0
- package/src/features/Portal/Thread/Chat/ThreadDivider/index.tsx +19 -0
- package/src/features/Portal/Thread/Chat/index.tsx +28 -0
- package/src/features/Portal/Thread/Header/Active.tsx +35 -0
- package/src/features/Portal/Thread/Header/New.tsx +37 -0
- package/src/features/Portal/Thread/Header/Title.tsx +18 -0
- package/src/features/Portal/Thread/Header/index.tsx +20 -0
- package/src/features/Portal/Thread/hook.ts +8 -0
- package/src/features/Portal/Thread/index.ts +12 -0
- package/src/features/Portal/router.tsx +2 -1
- package/src/hooks/useFetchTopics.ts +7 -1
- package/src/locales/default/chat.ts +8 -1
- package/src/locales/default/common.ts +3 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/setting.ts +5 -0
- package/src/locales/default/thread.ts +5 -0
- package/src/server/modules/AgentRuntime/index.test.ts +10 -0
- package/src/server/modules/AgentRuntime/index.ts +1 -1
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/server/routers/lambda/thread.ts +83 -0
- package/src/services/thread.ts +54 -0
- package/src/store/chat/initialState.ts +3 -0
- package/src/store/chat/selectors.ts +2 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/generateAIChat.test.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/rag.test.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +31 -8
- package/src/store/chat/slices/aiChat/actions/rag.ts +1 -1
- package/src/store/chat/slices/message/selectors.test.ts +3 -3
- package/src/store/chat/slices/message/selectors.ts +50 -29
- package/src/store/chat/slices/plugin/action.ts +26 -8
- package/src/store/chat/slices/portal/action.ts +1 -0
- package/src/store/chat/slices/portal/initialState.ts +1 -0
- package/src/store/chat/slices/portal/selectors/thread.ts +17 -0
- package/src/store/chat/slices/portal/selectors.ts +2 -0
- package/src/store/chat/slices/thread/action.ts +326 -0
- package/src/store/chat/slices/thread/initialState.ts +34 -0
- package/src/store/chat/slices/thread/reducer.ts +48 -0
- package/src/store/chat/slices/thread/selectors/index.ts +202 -0
- package/src/store/chat/slices/thread/selectors/util.ts +22 -0
- package/src/store/chat/slices/topic/action.ts +5 -1
- package/src/store/chat/store.ts +5 -2
- package/src/store/global/initialState.ts +4 -0
- package/src/store/global/selectors.ts +4 -0
- package/src/store/user/slices/settings/selectors/systemAgent.ts +2 -0
- package/src/types/message/index.ts +17 -1
- package/src/types/topic/index.ts +1 -0
- package/src/types/topic/thread.ts +42 -0
- package/src/types/user/settings/systemAgent.ts +1 -0
- package/src/app/(main)/chat/(workspace)/@portal/features/Header.tsx +0 -11
- package/src/app/(main)/chat/(workspace)/_layout/Mobile/PortalModal.tsx +0 -35
- /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/SendMore.tsx +0 -0
- /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/ShortcutHint.tsx +0 -0
- /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{DefaultContent.tsx → TopicItem/DefaultContent.tsx} +0 -0
- /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicContent.tsx → TopicItem/TopicContent.tsx} +0 -0
- /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/PluginResultJSON.tsx +0 -0
- /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/Settings.tsx +0 -0
- /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/style.ts +0 -0
package/locales/tr-TR/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "Asistan",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Üretiliyor",
|
11
|
+
"inThread": "Alt konu içinde görüntülenemiyor, lütfen ana konuşma alanına geçin",
|
11
12
|
"thinking": "Düşünülüyor",
|
12
13
|
"thought": "Düşünce Süreci",
|
13
14
|
"unknownTitle": "İsimsiz Eser"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "Sil ve Yeniden Oluştur",
|
69
|
+
"deleteDisabledByThreads": "Alt konular mevcut, silinemez",
|
68
70
|
"regenerate": "Yeniden Oluştur"
|
69
71
|
},
|
70
72
|
"newAgent": "Yeni Asistan",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "Tanımlanıyor...",
|
122
124
|
"prettifying": "İyileştiriliyor..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "Alt konu",
|
128
|
+
"threadMessageCount": "{{messageCount}} mesaj",
|
129
|
+
"title": "Alt konu"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "Sohbetler",
|
126
133
|
"historySummary": "Tarih Özeti",
|
@@ -16,6 +16,8 @@
|
|
16
16
|
"back": "Geri",
|
17
17
|
"batchDelete": "Toplu Sil",
|
18
18
|
"blog": "Ürün Blogu",
|
19
|
+
"branching": "Alt konu oluştur",
|
20
|
+
"branchingDisable": "«Alt konu» özelliği yalnızca sunucu sürümünde mevcuttur. Bu özelliği kullanmak için lütfen sunucu dağıtım moduna geçin veya LobeChat Cloud'u kullanın.",
|
19
21
|
"cancel": "İptal",
|
20
22
|
"changelog": "Changelog",
|
21
23
|
"close": "Kapat",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar."
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır."
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2, Qwen modelinin en yeni serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda."
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct, 16k bağlamı destekler ve 8K'dan uzun metinler üretebilir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim sağlar, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Modelin bilgisi belirgin şekilde artmış ve kodlama ile matematik yetenekleri büyük ölçüde geliştirilmiştir, 29'dan fazla dil desteği sunmaktadır."
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür."
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large, sektördeki en büyük açık kaynaklı Transformer mimarisi MoE modelidir ve toplam 389 milyar parametre ile 52 milyar etkin parametreye sahiptir."
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B, orijinal model serisinin mükemmel genel dil yeteneklerini korurken, 500 milyar yüksek kaliteli token ile artımlı eğitim sayesinde matematiksel mantık ve kodlama yeteneklerini büyük ölçüde artırmıştır."
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur."
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır."
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B, çok dilli kod üretim modeli olup, kod tamamlama ve üretimi, kod yorumlayıcı, web arama, fonksiyon çağrısı, depo düzeyinde kod soru-cevap gibi kapsamlı işlevleri destekler ve yazılım geliştirme için çeşitli senaryoları kapsar. 10B'den az parametreye sahip en iyi kod üretim modelidir."
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler."
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleri ile daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazım görevleri, talimat takibi gibi birçok alanda büyük iyileştirmeler sağlamıştır."
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B, 20 trilyon veri ile eğitilmiş bir kod dili modelidir. Bunun %87'si kod, %13'ü ise Çince ve İngilizce dillerindendir. Model, 16K pencere boyutu ve boşluk doldurma görevini tanıtarak proje düzeyinde kod tamamlama ve parça doldurma işlevi sunmaktadır."
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir."
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114, Google'ın en son deneysel çok modlu AI modeli olup, hızlı işleme yeteneğine sahip, metin, görüntü ve video girişlerini desteklemekte ve çeşitli görevlerde verimli bir şekilde ölçeklenmektedir."
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121, Google'un en yeni deneysel çok modlu AI modelidir. Hızlı işlem yeteneğine sahip olup, metin, görüntü ve video girişi destekler ve çeşitli görevler için verimli bir şekilde ölçeklenebilir."
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler."
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat, anlam, matematik, akıl yürütme, kod ve bilgi gibi birçok alanda yüksek performans göstermektedir. Ayrıca web tarayıcı, kod yürütme, özel araç çağrıları ve uzun metin akıl yürütme yeteneklerine sahiptir. Japonca, Korece, Almanca dahil olmak üzere 26 dil desteği sunmaktadır."
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar."
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "Kullanıcı sorularını optimize etmek için kullanılan model",
|
390
390
|
"title": "Bilgi Tabanı Soru Yeniden Yazımı"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "Alt konu adlandırma modeli",
|
394
|
+
"modelDesc": "Alt konuların otomatik olarak yeniden adlandırılması için kullanılan model",
|
395
|
+
"title": "Alt konu otomatik adlandırma"
|
396
|
+
},
|
392
397
|
"title": "Sistem Asistanı",
|
393
398
|
"topic": {
|
394
399
|
"label": "Konu Adlandırma Modeli",
|
package/locales/vi-VN/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "Trợ lý",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Đang tạo",
|
11
|
+
"inThread": "Không thể xem trong chủ đề con, vui lòng chuyển sang khu vực đối thoại chính để mở",
|
11
12
|
"thinking": "Đang suy nghĩ",
|
12
13
|
"thought": "Quá trình suy nghĩ",
|
13
14
|
"unknownTitle": "Tác phẩm chưa được đặt tên"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "Xóa và tạo lại",
|
69
|
+
"deleteDisabledByThreads": "Có chủ đề con, không thể xóa",
|
68
70
|
"regenerate": "Tạo lại"
|
69
71
|
},
|
70
72
|
"newAgent": "Tạo trợ lý mới",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "Đang nhận dạng...",
|
122
124
|
"prettifying": "Đang tinh chỉnh..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "Chủ đề con",
|
128
|
+
"threadMessageCount": "{{messageCount}} tin nhắn",
|
129
|
+
"title": "Chủ đề con"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "Tin nhắn trò chuyện",
|
126
133
|
"historySummary": "Tóm tắt lịch sử",
|
@@ -16,6 +16,8 @@
|
|
16
16
|
"back": "Quay lại",
|
17
17
|
"batchDelete": "Xóa hàng loạt",
|
18
18
|
"blog": "Blog sản phẩm",
|
19
|
+
"branching": "Tạo chủ đề con",
|
20
|
+
"branchingDisable": "Chức năng «Chủ đề con» chỉ có sẵn trong phiên bản máy chủ. Nếu bạn cần chức năng này, hãy chuyển sang chế độ triển khai máy chủ hoặc sử dụng LobeChat Cloud.",
|
19
21
|
"cancel": "Hủy",
|
20
22
|
"changelog": "Nhật ký cập nhật",
|
21
23
|
"close": "Đóng",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó."
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ."
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 là dòng mô hình mới nhất của Qwen, có khả năng vượt qua các mô hình mã nguồn mở cùng quy mô hoặc thậm chí lớn hơn, Qwen2 7B đạt được lợi thế đáng kể trong nhiều bài kiểm tra, đặc biệt là trong việc hiểu mã và tiếng Trung."
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct hỗ trợ ngữ cảnh 16k, tạo ra văn bản dài hơn 8K. Hỗ trợ gọi hàm và tương tác liền mạch với hệ thống bên ngoài, nâng cao đáng kể tính linh hoạt và khả năng mở rộng. Kiến thức của mô hình đã tăng lên rõ rệt và khả năng mã hóa cũng như toán học được cải thiện đáng kể, hỗ trợ hơn 29 ngôn ngữ."
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "Mô hình phiên bản cơ bản (V4), độ dài ngữ cảnh 4K, khả năng tổng quát mạnh mẽ."
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large là mô hình MoE kiến trúc Transformer mã nguồn mở lớn nhất trong ngành, với tổng số tham số là 3890 tỷ và 52 tỷ tham số kích hoạt."
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B, trong khi vẫn giữ được khả năng ngôn ngữ chung xuất sắc của dòng mô hình gốc, đã tăng cường đào tạo với 500 tỷ token chất lượng cao, nâng cao đáng kể khả năng logic toán học và mã."
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn."
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển."
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B là một mô hình tạo mã đa ngôn ngữ, hỗ trợ đầy đủ các chức năng như hoàn thành và tạo mã, trình giải thích mã, tìm kiếm trên mạng, gọi hàm, và hỏi đáp mã cấp kho, bao phủ nhiều tình huống trong phát triển phần mềm. Đây là mô hình tạo mã hàng đầu với số tham số dưới 10B."
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma là mô hình ngôn ngữ nhẹ chuyên dụng cho các nhiệm vụ lập trình khác nhau, hỗ trợ lặp lại và tích hợp nhanh chóng."
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều khía cạnh như nhiệm vụ viết, theo dõi chỉ dẫn."
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B là một mô hình ngôn ngữ mã, được đào tạo trên 20 triệu tỷ dữ liệu, trong đó 87% là mã và 13% là ngôn ngữ Trung và Anh. Mô hình này giới thiệu kích thước cửa sổ 16K và nhiệm vụ điền chỗ trống, cung cấp chức năng hoàn thành mã và điền đoạn mã ở cấp độ dự án."
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo."
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp với việc mở rộng hiệu quả cho nhiều nhiệm vụ."
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh chóng, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ."
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các nhiệm vụ phức tạp và đa dạng, thể hiện xuất sắc."
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat thể hiện hiệu suất cao trong nhiều lĩnh vực như ngữ nghĩa, toán học, suy luận, mã và kiến thức. Nó còn có khả năng duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài. Hỗ trợ 26 ngôn ngữ, bao gồm tiếng Nhật, tiếng Hàn và tiếng Đức."
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air là phiên bản có giá trị sử dụng cao, hiệu suất gần giống GLM-4, cung cấp tốc độ nhanh và giá cả phải chăng."
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "Mô hình được chỉ định để tối ưu hóa câu hỏi của người dùng",
|
390
390
|
"title": "Viết lại câu hỏi trong kho kiến thức"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "Mô hình đặt tên chủ đề phụ",
|
394
|
+
"modelDesc": "Mô hình được chỉ định để tự động đổi tên chủ đề phụ",
|
395
|
+
"title": "Tự động đặt tên chủ đề phụ"
|
396
|
+
},
|
392
397
|
"title": "Trợ lý hệ thống",
|
393
398
|
"topic": {
|
394
399
|
"label": "Mô hình đặt tên chủ đề",
|
package/locales/zh-CN/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "助手",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "生成中",
|
11
|
+
"inThread": "子话题中无法查看,请切换到主对话区打开",
|
11
12
|
"thinking": "思考中",
|
12
13
|
"thought": "思考过程",
|
13
14
|
"unknownTitle": "未命名作品"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "删除并重新生成",
|
69
|
+
"deleteDisabledByThreads": "存在子话题,不能删除",
|
68
70
|
"regenerate": "重新生成"
|
69
71
|
},
|
70
72
|
"newAgent": "新建助手",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "识别中...",
|
122
124
|
"prettifying": "润色中..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "子话题",
|
128
|
+
"threadMessageCount": "{{messageCount}} 条消息",
|
129
|
+
"title": "子话题"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "会话消息",
|
126
133
|
"historySummary": "历史总结",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math 专注于数学领域的问题求解,为高难度题提供专业解答。"
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。"
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。"
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large 是业界最大的开源 Transformer 架构 MoE 模型,拥有 3890 亿总参数量和 520 亿激活参数量。"
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。"
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。"
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。"
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B 是一个多语言代码生成模型,支持包括代码补全和生成、代码解释器、网络搜索、函数调用、仓库级代码问答在内的全面功能,覆盖软件开发的各种场景。是参数少于 10B 的顶尖代码生成模型。"
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。"
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B 是一个代码语言模型, 基于 2 万亿数据训练而成,其中 87% 为代码, 13% 为中英文语言。模型引入 16K 窗口大小和填空任务,提供项目级别的代码补全和片段填充功能。"
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 是Google最新的实验性多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 是Google最新的实验性多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。"
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。"
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。"
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
|
508
532
|
},
|
package/locales/zh-TW/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "助手",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "生成中",
|
11
|
+
"inThread": "子話題中無法查看,請切換到主對話區打開",
|
11
12
|
"thinking": "思考中",
|
12
13
|
"thought": "思考過程",
|
13
14
|
"unknownTitle": "未命名作品"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "刪除並重新生成",
|
69
|
+
"deleteDisabledByThreads": "存在子話題,無法刪除",
|
68
70
|
"regenerate": "重新生成"
|
69
71
|
},
|
70
72
|
"newAgent": "新建助手",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "識別中...",
|
122
124
|
"prettifying": "潤色中..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "子話題",
|
128
|
+
"threadMessageCount": "{{messageCount}} 條消息",
|
129
|
+
"title": "子話題"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "聊天訊息",
|
126
133
|
"historySummary": "歷史總結",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math專注於數學領域的問題求解,為高難度題提供專業解答。"
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。"
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 是 Qwen 模型的最新系列,能夠超越同等規模的最優開源模型甚至更大規模的模型,Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。"
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct 支持 16k 上下文,生成長文本超過 8K。支持 function call 與外部系統無縫互動,極大提升了靈活性和擴展性。模型知識明顯增加,並且大幅提高了編碼和數學能力,多語言支持超過 29 種。"
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "基礎版本模型 (V4),4K上下文長度,通用能力強大"
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large 是業界最大的開源 Transformer 架構 MoE 模型,擁有 3890 億總參數量和 520 億激活參數量。"
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B 在保持原系列模型優秀的通用語言能力的前提下,通過增量訓練 5 千億高質量 token,大幅提高了數學邏輯和代碼能力。"
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。"
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。"
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B 是一個多語言代碼生成模型,支持包括代碼補全和生成、代碼解釋器、網絡搜索、函數調用、倉庫級代碼問答在內的全面功能,覆蓋軟件開發的各種場景。是參數少於 10B 的頂尖代碼生成模型。"
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。"
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。"
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B 是一個代碼語言模型,基於 2 萬億數據訓練而成,其中 87% 為代碼,13% 為中英文語言。模型引入 16K 窗口大小和填空任務,提供項目級別的代碼補全和片段填充功能。"
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。"
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、影像和影片輸入,適用於多種任務的高效擴展。"
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。"
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520是最新模型版本,專為高度複雜和多樣化任務設計,表現卓越。"
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat 在語義、數學、推理、代碼和知識等多方面均表現出較高性能。還具備網頁瀏覽、代碼執行、自定義工具調用和長文本推理。支持包括日語、韓語、德語在內的 26 種語言。"
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air是性價比高的版本,性能接近GLM-4,提供快速度和實惠的價格。"
|
508
532
|
},
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.
|
3
|
+
"version": "1.34.1",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -3,6 +3,7 @@ import { isMobileDevice } from '@/utils/server/responsive';
|
|
3
3
|
import ChatHydration from './features/ChatHydration';
|
4
4
|
import ChatInput from './features/ChatInput';
|
5
5
|
import ChatList from './features/ChatList';
|
6
|
+
import ThreadHydration from './features/ThreadHydration';
|
6
7
|
import ZenModeToast from './features/ZenModeToast';
|
7
8
|
|
8
9
|
const ChatConversation = () => {
|
@@ -14,6 +15,7 @@ const ChatConversation = () => {
|
|
14
15
|
<ChatList mobile={mobile} />
|
15
16
|
<ChatInput />
|
16
17
|
<ChatHydration />
|
18
|
+
<ThreadHydration />
|
17
19
|
</>
|
18
20
|
);
|
19
21
|
};
|
@@ -12,18 +12,27 @@ const ChatHydration = memo(() => {
|
|
12
12
|
|
13
13
|
// two-way bindings the topic params to chat store
|
14
14
|
const [topic, setTopic] = useQueryState('topic', { history: 'replace', throttleMs: 500 });
|
15
|
+
const [thread, setThread] = useQueryState('thread', { history: 'replace', throttleMs: 500 });
|
15
16
|
useStoreUpdater('activeTopicId', topic);
|
17
|
+
useStoreUpdater('activeThreadId', thread);
|
16
18
|
|
17
19
|
useLayoutEffect(() => {
|
18
|
-
const
|
20
|
+
const unsubscribeTopic = useChatStore.subscribe(
|
19
21
|
(s) => s.activeTopicId,
|
20
22
|
(state) => {
|
21
23
|
setTopic(!state ? null : state);
|
22
24
|
},
|
23
25
|
);
|
26
|
+
const unsubscribeThread = useChatStore.subscribe(
|
27
|
+
(s) => s.activeThreadId,
|
28
|
+
(state) => {
|
29
|
+
setThread(!state ? null : state);
|
30
|
+
},
|
31
|
+
);
|
24
32
|
|
25
33
|
return () => {
|
26
|
-
|
34
|
+
unsubscribeTopic();
|
35
|
+
unsubscribeThread();
|
27
36
|
};
|
28
37
|
}, []);
|
29
38
|
|
@@ -11,8 +11,8 @@ import { useChatStore } from '@/store/chat';
|
|
11
11
|
import { chatSelectors } from '@/store/chat/selectors';
|
12
12
|
import { isMacOS } from '@/utils/platform';
|
13
13
|
|
14
|
-
import
|
15
|
-
import
|
14
|
+
import LocalFiles from '../../../../../../../../../features/ChatInput/Desktop/FilePreview';
|
15
|
+
import SaveTopic from '../../../../../../../../../features/ChatInput/Topic';
|
16
16
|
import SendMore from './SendMore';
|
17
17
|
import ShortcutHint from './ShortcutHint';
|
18
18
|
|
@@ -45,12 +45,10 @@ const useStyles = createStyles(({ css, prefixCls, token }) => {
|
|
45
45
|
|
46
46
|
interface FooterProps {
|
47
47
|
expand: boolean;
|
48
|
-
|
49
|
-
setExpand?: (expand: boolean) => void;
|
50
|
-
shortcutHint?: boolean;
|
48
|
+
onExpandChange: (expand: boolean) => void;
|
51
49
|
}
|
52
50
|
|
53
|
-
const Footer = memo<FooterProps>(({
|
51
|
+
const Footer = memo<FooterProps>(({ onExpandChange, expand }) => {
|
54
52
|
const { t } = useTranslation('chat');
|
55
53
|
|
56
54
|
const { styles } = useStyles();
|
@@ -82,8 +80,8 @@ const Footer = memo<FooterProps>(({ setExpand, expand, shortcutHint = true, save
|
|
82
80
|
{expand && <LocalFiles />}
|
83
81
|
</Flexbox>
|
84
82
|
<Flexbox align={'center'} flex={'none'} gap={8} horizontal>
|
85
|
-
|
86
|
-
|
83
|
+
<ShortcutHint />
|
84
|
+
<SaveTopic />
|
87
85
|
<Flexbox style={{ minWidth: 92 }}>
|
88
86
|
{isAIGenerating ? (
|
89
87
|
<Button
|
@@ -100,7 +98,7 @@ const Footer = memo<FooterProps>(({ setExpand, expand, shortcutHint = true, save
|
|
100
98
|
loading={!canSend}
|
101
99
|
onClick={() => {
|
102
100
|
sendMessage();
|
103
|
-
|
101
|
+
onExpandChange?.(false);
|
104
102
|
}}
|
105
103
|
type={'primary'}
|
106
104
|
>
|
@@ -3,10 +3,11 @@
|
|
3
3
|
import { memo } from 'react';
|
4
4
|
|
5
5
|
import { ActionKeys } from '@/features/ChatInput/ActionBar/config';
|
6
|
-
import DesktopChatInput from '@/features/ChatInput/Desktop';
|
6
|
+
import DesktopChatInput, { FooterRender } from '@/features/ChatInput/Desktop';
|
7
7
|
import { useGlobalStore } from '@/store/global';
|
8
8
|
import { systemStatusSelectors } from '@/store/global/selectors';
|
9
9
|
|
10
|
+
import Footer from './Footer';
|
10
11
|
import TextArea from './TextArea';
|
11
12
|
|
12
13
|
const leftActions = [
|
@@ -17,12 +18,15 @@ const leftActions = [
|
|
17
18
|
'history',
|
18
19
|
'stt',
|
19
20
|
'tools',
|
20
|
-
'
|
21
|
+
'mainToken',
|
21
22
|
] as ActionKeys[];
|
22
23
|
|
23
24
|
const rightActions = ['clear'] as ActionKeys[];
|
24
25
|
|
25
26
|
const renderTextArea = (onSend: () => void) => <TextArea onSend={onSend} />;
|
27
|
+
const renderFooter: FooterRender = ({ expand, onExpandChange }) => (
|
28
|
+
<Footer expand={expand} onExpandChange={onExpandChange} />
|
29
|
+
);
|
26
30
|
|
27
31
|
const Desktop = memo(() => {
|
28
32
|
const [inputHeight, updatePreference] = useGlobalStore((s) => [
|
@@ -37,6 +41,7 @@ const Desktop = memo(() => {
|
|
37
41
|
onInputHeightChange={(height) => {
|
38
42
|
updatePreference({ inputHeight: height });
|
39
43
|
}}
|
44
|
+
renderFooter={renderFooter}
|
40
45
|
renderTextArea={renderTextArea}
|
41
46
|
rightActions={rightActions}
|
42
47
|
/>
|