@lobehub/chat 1.33.5 → 1.34.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +7 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/models.json +24 -0
- package/locales/ar/setting.json +5 -0
- package/locales/ar/thread.json +5 -0
- package/locales/bg-BG/chat.json +7 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/models.json +24 -0
- package/locales/bg-BG/setting.json +5 -0
- package/locales/bg-BG/thread.json +5 -0
- package/locales/de-DE/chat.json +7 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/models.json +24 -0
- package/locales/de-DE/setting.json +5 -0
- package/locales/de-DE/thread.json +5 -0
- package/locales/en-US/chat.json +7 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/models.json +24 -0
- package/locales/en-US/setting.json +5 -0
- package/locales/en-US/thread.json +5 -0
- package/locales/es-ES/chat.json +7 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/models.json +24 -0
- package/locales/es-ES/setting.json +5 -0
- package/locales/es-ES/thread.json +5 -0
- package/locales/fa-IR/chat.json +7 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/models.json +24 -0
- package/locales/fa-IR/setting.json +5 -0
- package/locales/fa-IR/thread.json +5 -0
- package/locales/fr-FR/chat.json +7 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/models.json +24 -0
- package/locales/fr-FR/setting.json +5 -0
- package/locales/fr-FR/thread.json +5 -0
- package/locales/it-IT/chat.json +7 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/models.json +24 -0
- package/locales/it-IT/setting.json +5 -0
- package/locales/it-IT/thread.json +5 -0
- package/locales/ja-JP/chat.json +7 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/models.json +24 -0
- package/locales/ja-JP/setting.json +5 -0
- package/locales/ja-JP/thread.json +5 -0
- package/locales/ko-KR/chat.json +7 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/models.json +24 -0
- package/locales/ko-KR/setting.json +5 -0
- package/locales/ko-KR/thread.json +5 -0
- package/locales/nl-NL/chat.json +7 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/models.json +24 -0
- package/locales/nl-NL/setting.json +5 -0
- package/locales/nl-NL/thread.json +5 -0
- package/locales/pl-PL/chat.json +7 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/models.json +24 -0
- package/locales/pl-PL/setting.json +5 -0
- package/locales/pl-PL/thread.json +5 -0
- package/locales/pt-BR/chat.json +7 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/models.json +24 -0
- package/locales/pt-BR/setting.json +5 -0
- package/locales/pt-BR/thread.json +5 -0
- package/locales/ru-RU/chat.json +7 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/models.json +24 -0
- package/locales/ru-RU/setting.json +5 -0
- package/locales/ru-RU/thread.json +5 -0
- package/locales/tr-TR/chat.json +7 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/models.json +24 -0
- package/locales/tr-TR/setting.json +5 -0
- package/locales/tr-TR/thread.json +5 -0
- package/locales/vi-VN/chat.json +7 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/models.json +24 -0
- package/locales/vi-VN/setting.json +5 -0
- package/locales/vi-VN/thread.json +5 -0
- package/locales/zh-CN/chat.json +7 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/models.json +24 -0
- package/locales/zh-CN/setting.json +5 -0
- package/locales/zh-CN/thread.json +5 -0
- package/locales/zh-TW/chat.json +7 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/models.json +24 -0
- package/locales/zh-TW/setting.json +5 -0
- package/locales/zh-TW/thread.json +5 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatHydration/index.tsx +11 -2
- package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/index.tsx +7 -9
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +7 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/Thread.tsx +62 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/ThreadItem.tsx +68 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/index.tsx +62 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ThreadHydration.tsx +47 -0
- package/src/app/(main)/chat/(workspace)/@portal/_layout/Desktop.tsx +3 -2
- package/src/app/(main)/chat/(workspace)/@portal/_layout/Mobile.tsx +47 -6
- package/src/app/(main)/chat/(workspace)/@topic/features/SkeletonList.tsx +3 -2
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ByTimeMode/index.tsx +10 -3
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/FlatMode/index.tsx +1 -1
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/Content.tsx +164 -0
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/ThreadItem/index.tsx +98 -0
- package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicItem.tsx → TopicItem/index.tsx} +33 -22
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/Portal.tsx +12 -5
- package/src/app/(main)/chat/(workspace)/_layout/Mobile/index.tsx +1 -2
- package/src/const/message.ts +2 -0
- package/src/const/settings/systemAgent.ts +1 -0
- package/src/database/server/migrations/0012_add_thread.sql +39 -0
- package/src/database/server/migrations/meta/0012_snapshot.json +3671 -0
- package/src/database/server/migrations/meta/_journal.json +7 -0
- package/src/database/server/models/_template.ts +2 -2
- package/src/database/server/models/message.ts +1 -0
- package/src/database/server/models/thread.ts +79 -0
- package/src/database/server/schemas/lobechat/message.ts +2 -1
- package/src/database/server/schemas/lobechat/relations.ts +13 -1
- package/src/database/server/schemas/lobechat/topic.ts +30 -1
- package/src/database/server/utils/idGenerator.ts +1 -0
- package/src/features/ChatInput/ActionBar/Token/TokenTag.tsx +6 -4
- package/src/features/ChatInput/ActionBar/Token/index.tsx +24 -5
- package/src/features/ChatInput/ActionBar/config.ts +3 -2
- package/src/features/ChatInput/Desktop/index.tsx +15 -7
- package/src/features/ChatInput/Mobile/index.tsx +4 -4
- package/src/features/Conversation/Actions/Assistant.tsx +24 -5
- package/src/features/Conversation/Actions/User.tsx +21 -4
- package/src/features/Conversation/Actions/index.ts +1 -66
- package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/index.tsx +3 -1
- package/src/features/Conversation/Messages/{Tool/index.tsx → Assistant/ToolCallItem/Tool.tsx} +10 -11
- package/src/features/Conversation/Messages/Assistant/ToolCallItem/index.tsx +5 -3
- package/src/features/Conversation/Messages/Assistant/index.tsx +22 -14
- package/src/features/Conversation/Messages/index.ts +0 -2
- package/src/features/Conversation/components/AutoScroll.tsx +1 -1
- package/src/features/Conversation/components/ChatItem/ActionsBar.tsx +79 -5
- package/src/features/Conversation/components/ChatItem/InPortalThreadContext.ts +3 -0
- package/src/features/Conversation/components/ChatItem/index.tsx +16 -5
- package/src/features/Conversation/components/MarkdownElements/LobeArtifact/Render/index.tsx +9 -1
- package/src/features/Conversation/components/ThreadDivider/index.tsx +19 -0
- package/src/features/Conversation/hooks/useChatListActionsBar.tsx +19 -4
- package/src/features/Portal/Thread/Chat/ChatInput/Footer.tsx +90 -0
- package/src/features/Portal/Thread/Chat/ChatInput/TextArea.tsx +30 -0
- package/src/features/Portal/Thread/Chat/ChatInput/index.tsx +66 -0
- package/src/features/Portal/Thread/Chat/ChatInput/useSend.ts +50 -0
- package/src/features/Portal/Thread/Chat/ChatItem.tsx +62 -0
- package/src/features/Portal/Thread/Chat/ChatList.tsx +49 -0
- package/src/features/Portal/Thread/Chat/ThreadDivider/index.tsx +19 -0
- package/src/features/Portal/Thread/Chat/index.tsx +28 -0
- package/src/features/Portal/Thread/Header/Active.tsx +35 -0
- package/src/features/Portal/Thread/Header/New.tsx +37 -0
- package/src/features/Portal/Thread/Header/Title.tsx +18 -0
- package/src/features/Portal/Thread/Header/index.tsx +20 -0
- package/src/features/Portal/Thread/hook.ts +8 -0
- package/src/features/Portal/Thread/index.ts +12 -0
- package/src/features/Portal/router.tsx +2 -1
- package/src/hooks/useFetchTopics.ts +7 -1
- package/src/locales/default/chat.ts +8 -1
- package/src/locales/default/common.ts +3 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/setting.ts +5 -0
- package/src/locales/default/thread.ts +5 -0
- package/src/server/modules/AgentRuntime/index.test.ts +10 -0
- package/src/server/modules/AgentRuntime/index.ts +1 -1
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/server/routers/lambda/thread.ts +83 -0
- package/src/services/thread.ts +54 -0
- package/src/store/chat/initialState.ts +3 -0
- package/src/store/chat/selectors.ts +2 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/generateAIChat.test.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/__tests__/rag.test.ts +1 -1
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +31 -8
- package/src/store/chat/slices/aiChat/actions/rag.ts +1 -1
- package/src/store/chat/slices/message/selectors.test.ts +3 -3
- package/src/store/chat/slices/message/selectors.ts +50 -29
- package/src/store/chat/slices/plugin/action.ts +26 -8
- package/src/store/chat/slices/portal/action.ts +1 -0
- package/src/store/chat/slices/portal/initialState.ts +1 -0
- package/src/store/chat/slices/portal/selectors/thread.ts +17 -0
- package/src/store/chat/slices/portal/selectors.ts +2 -0
- package/src/store/chat/slices/thread/action.ts +326 -0
- package/src/store/chat/slices/thread/initialState.ts +34 -0
- package/src/store/chat/slices/thread/reducer.ts +48 -0
- package/src/store/chat/slices/thread/selectors/index.ts +202 -0
- package/src/store/chat/slices/thread/selectors/util.ts +22 -0
- package/src/store/chat/slices/topic/action.ts +5 -1
- package/src/store/chat/store.ts +5 -2
- package/src/store/global/initialState.ts +4 -0
- package/src/store/global/selectors.ts +4 -0
- package/src/store/user/slices/settings/selectors/systemAgent.ts +2 -0
- package/src/types/message/index.ts +17 -1
- package/src/types/topic/index.ts +1 -0
- package/src/types/topic/thread.ts +42 -0
- package/src/types/user/settings/systemAgent.ts +1 -0
- package/src/app/(main)/chat/(workspace)/@portal/features/Header.tsx +0 -11
- package/src/app/(main)/chat/(workspace)/_layout/Mobile/PortalModal.tsx +0 -35
- /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/SendMore.tsx +0 -0
- /package/src/{features → app/(main)/chat/(workspace)/@conversation/features}/ChatInput/Desktop/Footer/ShortcutHint.tsx +0 -0
- /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{DefaultContent.tsx → TopicItem/DefaultContent.tsx} +0 -0
- /package/src/app/(main)/chat/(workspace)/@topic/features/TopicListContent/{TopicContent.tsx → TopicItem/TopicContent.tsx} +0 -0
- /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/PluginResultJSON.tsx +0 -0
- /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/Settings.tsx +0 -0
- /package/src/features/Conversation/Messages/{Tool → Assistant/ToolCallItem}/Inspector/style.ts +0 -0
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math se centra en la resolución de problemas en el ámbito de las matemáticas, proporcionando respuestas profesionales a preguntas de alta dificultad."
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 es la última serie del modelo Qwen, que admite un contexto de 128k. En comparación con los modelos de código abierto más óptimos actuales, Qwen2-72B supera significativamente a los modelos líderes actuales en comprensión del lenguaje natural, conocimiento, código, matemáticas y capacidades multilingües."
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 es la última serie del modelo Qwen, capaz de superar a los modelos de código abierto de tamaño equivalente e incluso a modelos de mayor tamaño. Qwen2 7B ha logrado ventajas significativas en múltiples evaluaciones, especialmente en comprensión de código y chino."
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct admite un contexto de 16k, generando textos largos de más de 8K. Soporta llamadas a funciones e interacción sin problemas con sistemas externos, lo que mejora enormemente la flexibilidad y escalabilidad. El conocimiento del modelo ha aumentado significativamente, y se ha mejorado considerablemente la capacidad de codificación y matemáticas, con soporte para más de 29 idiomas."
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "Modelo de versión básica (V4), longitud de contexto de 4K, con potentes capacidades generales."
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large es el modelo MoE de Transformer de código abierto más grande de la industria, con un total de 389 mil millones de parámetros y 52 mil millones de parámetros activados."
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B, manteniendo la excelente capacidad de lenguaje general de la serie original, ha mejorado significativamente la lógica matemática y la capacidad de codificación mediante un entrenamiento incremental de 500 mil millones de tokens de alta calidad."
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "Orientado a escenarios de productividad, admite el procesamiento de tareas complejas y la generación eficiente de texto, adecuado para aplicaciones en campos profesionales."
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4 es un potente asistente de programación AI, que admite preguntas y respuestas inteligentes y autocompletado de código en varios lenguajes de programación, mejorando la eficiencia del desarrollo."
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B es un modelo de generación de código multilingüe, que admite funciones completas, incluyendo autocompletado y generación de código, intérprete de código, búsqueda en la web, llamadas a funciones y preguntas y respuestas de código a nivel de repositorio, cubriendo diversos escenarios de desarrollo de software. Es un modelo de generación de código de primer nivel con menos de 10B de parámetros."
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma es un modelo de lenguaje ligero especializado en diversas tareas de programación, que admite iteraciones rápidas e integración."
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, que no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B es un modelo de lenguaje de código, entrenado con 20 billones de datos, de los cuales el 87% son código y el 13% son lenguajes en chino e inglés. El modelo introduce un tamaño de ventana de 16K y tareas de llenado de espacios, proporcionando funciones de autocompletado de código a nivel de proyecto y llenado de fragmentos."
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo."
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 es el modelo de IA multimodal experimental más reciente de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imagen y video, adecuado para una amplia gama de tareas de manera eficiente."
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 es el último modelo experimental de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imágenes y videos, adecuado para una amplia gama de tareas de manera eficiente."
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520 es la última versión del modelo, diseñada para tareas altamente complejas y diversas, con un rendimiento excepcional."
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat muestra un alto rendimiento en semántica, matemáticas, razonamiento, código y conocimiento. También cuenta con navegación web, ejecución de código, llamadas a herramientas personalizadas y razonamiento de textos largos. Soporta 26 idiomas, incluidos japonés, coreano y alemán."
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air es una versión de alto costo-beneficio, con un rendimiento cercano al GLM-4, ofreciendo velocidad y precios asequibles."
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "Modelo designado para optimizar las preguntas de los usuarios",
|
390
390
|
"title": "Reescritura de preguntas de la base de conocimientos"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "Modelo de nombramiento de subtemas",
|
394
|
+
"modelDesc": "Modelo designado para el renombramiento automático de subtemas",
|
395
|
+
"title": "Nombramiento automático de subtemas"
|
396
|
+
},
|
392
397
|
"title": "Asistente del sistema",
|
393
398
|
"topic": {
|
394
399
|
"label": "Modelo de nombramiento de temas",
|
package/locales/fa-IR/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "دستیار",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "در حال تولید",
|
11
|
+
"inThread": "در زیرموضوع نمیتوانید مشاهده کنید، لطفاً به ناحیه اصلی گفتگو بروید",
|
11
12
|
"thinking": "در حال تفکر",
|
12
13
|
"thought": "فرآیند تفکر",
|
13
14
|
"unknownTitle": "اثر بدون نام"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "حذف و بازتولید",
|
69
|
+
"deleteDisabledByThreads": "زیرموضوع وجود دارد، نمیتوان حذف کرد",
|
68
70
|
"regenerate": "بازتولید"
|
69
71
|
},
|
70
72
|
"newAgent": "دستیار جدید",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "در حال شناسایی...",
|
122
124
|
"prettifying": "در حال ویرایش..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "زیرموضوع",
|
128
|
+
"threadMessageCount": "{{messageCount}} پیام",
|
129
|
+
"title": "زیرموضوع"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "پیامهای گفتگو",
|
126
133
|
"historySummary": "خلاصه تاریخ",
|
@@ -16,6 +16,8 @@
|
|
16
16
|
"back": "بازگشت",
|
17
17
|
"batchDelete": "حذف دستهای",
|
18
18
|
"blog": "وبلاگ محصولات",
|
19
|
+
"branching": "ایجاد زیرموضوع",
|
20
|
+
"branchingDisable": "ویژگی «زیرموضوع» تنها در نسخه سرور قابل استفاده است، اگر به این ویژگی نیاز دارید، لطفاً به حالت استقرار سرور تغییر دهید یا از LobeChat Cloud استفاده کنید.",
|
19
21
|
"cancel": "لغو",
|
20
22
|
"changelog": "تغییرات",
|
21
23
|
"close": "بستن",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخهای حرفهای برای مسائل پیچیده ارائه میدهد."
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که از 128k زمینه پشتیبانی میکند. در مقایسه با بهترین مدلهای متنباز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدلهای پیشرو فعلی فراتر رفته است."
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که میتواند از مدلهای متنباز با مقیاس مشابه و حتی بزرگتر فراتر رود. Qwen2 7B در چندین ارزیابی برتری قابل توجهی به دست آورده است، به ویژه در درک کد و زبان چینی."
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct از 16k زمینه پشتیبانی میکند و قادر به تولید متنهای طولانی بیش از 8K است. این مدل از تماسهای تابع و تعامل بدون درز با سیستمهای خارجی پشتیبانی میکند و به طور قابل توجهی انعطافپذیری و گسترشپذیری را افزایش میدهد. دانش مدل به وضوح افزایش یافته و تواناییهای کدنویسی و ریاضی به طور چشمگیری بهبود یافته است و از بیش از 29 زبان پشتیبانی میکند."
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "نسخه پایه مدل (V4)، طول متن ۴K، با تواناییهای عمومی قوی"
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large بزرگترین مدل MoE با ساختار Transformer متن باز در صنعت است که دارای ۳۸۹۰ میلیارد پارامتر کل و ۵۲۰ میلیارد پارامتر فعال است."
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B با حفظ تواناییهای زبان عمومی عالی مدلهای قبلی خود، از طریق آموزش افزایشی 500 میلیارد توکن با کیفیت بالا، به طور قابل توجهی تواناییهای منطقی ریاضی و کدنویسی را افزایش داده است."
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "برای سناریوهای بهرهوری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی میکند و برای کاربردهای حرفهای مناسب است."
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4 یک دستیار برنامهنویسی قدرتمند مبتنی بر هوش مصنوعی است که از پرسش و پاسخ هوشمند و تکمیل کد در زبانهای برنامهنویسی مختلف پشتیبانی میکند و بهرهوری توسعه را افزایش میدهد."
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانگی است که از قابلیتهای جامع شامل تکمیل و تولید کد، مفسر کد، جستجوی وب، تماس با توابع و پرسش و پاسخ کد در سطح مخزن پشتیبانی میکند و تمام سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای تولید کد با پارامترهای کمتر از 10B است."
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma یک مدل زبانی سبک برای وظایف مختلف برنامهنویسی است که از تکرار سریع و یکپارچهسازی پشتیبانی میکند."
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "مدل متنباز جدیدی که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و توانایی قدرتمند پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبهها نیز بهبودهای قابل توجهی داشته است."
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B یک مدل زبان کد است که بر اساس 20 تریلیون داده آموزش دیده است، که 87% آن کد و 13% آن زبانهای چینی و انگلیسی است. این مدل اندازه پنجره 16K و وظایف پر کردن جا را معرفی میکند و قابلیت تکمیل کد و پر کردن قطعات در سطح پروژه را ارائه میدهد."
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متنباز است که در وظایف کدنویسی عملکرد عالی دارد و با GPT4-Turbo قابل مقایسه است."
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 جدیدترین مدل AI چند وجهی تجربی Google است که دارای قابلیت پردازش سریع میباشد و از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و برای گسترش مؤثر در چندین وظیفه مناسب است."
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 جدیدترین مدل آزمایشی چندرسانهای AI گوگل است که دارای قابلیت پردازش سریع بوده و از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و برای گسترش کارآمد در انواع وظایف مناسب است."
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد."
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat در زمینههای معنایی، ریاضی، استدلال، کد و دانش عملکرد بالایی از خود نشان میدهد. همچنین دارای قابلیت مرور وب، اجرای کد، تماس با ابزارهای سفارشی و استدلال متنهای طولانی است. از 26 زبان از جمله ژاپنی، کرهای و آلمانی پشتیبانی میکند."
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air نسخهای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه میدهد."
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "مدلی که برای بهینهسازی پرسشهای کاربران استفاده میشود",
|
390
390
|
"title": "بازنویسی پرسشهای پایگاه دانش"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "مدل نامگذاری زیرموضوع",
|
394
|
+
"modelDesc": "مدل مشخص شده برای تغییر نام خودکار زیرموضوعها",
|
395
|
+
"title": "نامگذاری خودکار زیرموضوع"
|
396
|
+
},
|
392
397
|
"title": "دستیار سیستم",
|
393
398
|
"topic": {
|
394
399
|
"label": "مدل نامگذاری موضوع",
|
package/locales/fr-FR/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "Assistant",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Génération en cours",
|
11
|
+
"inThread": "Impossible de voir dans le sous-sujet, veuillez passer à la zone de discussion principale.",
|
11
12
|
"thinking": "En réflexion",
|
12
13
|
"thought": "Processus de pensée",
|
13
14
|
"unknownTitle": "Œuvre sans nom"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "Supprimer et régénérer",
|
69
|
+
"deleteDisabledByThreads": "Il existe des sous-sujets, la suppression n'est pas possible.",
|
68
70
|
"regenerate": "Régénérer"
|
69
71
|
},
|
70
72
|
"newAgent": "Nouvel agent",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "En cours de reconnaissance...",
|
122
124
|
"prettifying": "En cours d'embellissement..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "Sous-sujet",
|
128
|
+
"threadMessageCount": "{{messageCount}} messages",
|
129
|
+
"title": "Sous-sujet"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "Messages de discussion",
|
126
133
|
"historySummary": "Résumé historique",
|
@@ -16,6 +16,8 @@
|
|
16
16
|
"back": "Retour",
|
17
17
|
"batchDelete": "Suppression en masse",
|
18
18
|
"blog": "Blog des produits",
|
19
|
+
"branching": "Créer un sous-sujet",
|
20
|
+
"branchingDisable": "La fonction « sous-sujet » n'est disponible que dans la version serveur. Si vous avez besoin de cette fonctionnalité, veuillez passer en mode de déploiement serveur ou utiliser LobeChat Cloud.",
|
19
21
|
"cancel": "Annuler",
|
20
22
|
"changelog": "Journal des modifications",
|
21
23
|
"close": "Fermer",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions de haute difficulté."
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le code, les mathématiques et le multilinguisme."
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 est la dernière série du modèle Qwen, capable de surpasser les meilleurs modèles open source de taille équivalente, voire de plus grande taille. Qwen2 7B a obtenu des résultats significatifs dans plusieurs évaluations, en particulier en ce qui concerne la compréhension du code et du chinois."
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct prend en charge un contexte de 16k, générant des textes longs de plus de 8K. Il permet des appels de fonction et une interaction transparente avec des systèmes externes, augmentant considérablement la flexibilité et l'évolutivité. Les connaissances du modèle ont considérablement augmenté, et ses capacités en codage et en mathématiques ont été grandement améliorées, avec un support multilingue dépassant 29 langues."
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "Modèle de version de base (V4), longueur de contexte de 4K, avec de puissantes capacités générales."
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large est le plus grand modèle MoE à architecture Transformer open source de l'industrie, avec un total de 389 milliards de paramètres et 52 milliards de paramètres activés."
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B, tout en maintenant les excellentes capacités linguistiques générales de la série originale, a considérablement amélioré ses compétences en logique mathématique et en codage grâce à un entraînement incrémental sur 500 milliards de tokens de haute qualité."
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles."
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement."
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B est un modèle de génération de code multilingue, offrant des fonctionnalités complètes, y compris la complétion et la génération de code, un interpréteur de code, une recherche sur le web, des appels de fonction et des questions-réponses sur le code au niveau des dépôts, couvrant divers scénarios de développement logiciel. C'est un modèle de génération de code de premier plan avec moins de 10B de paramètres."
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides."
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "Un nouveau modèle open source qui fusionne des capacités générales et de code, conservant non seulement la capacité de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'alignant également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi des instructions."
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B est un modèle de langage de code, entraîné sur 20 trillions de données, dont 87 % sont du code et 13 % des langues chinoise et anglaise. Le modèle introduit une taille de fenêtre de 16K et des tâches de remplissage, offrant des fonctionnalités de complétion de code et de remplissage de fragments au niveau des projets."
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo."
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 est le dernier modèle d'IA multimodale expérimental de Google, offrant une capacité de traitement rapide, prenant en charge les entrées de texte, d'image et de vidéo, et permettant une extension efficace pour une variété de tâches."
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 est le dernier modèle d'IA multimodal expérimental de Google, capable de traiter rapidement des entrées textuelles, d'images et de vidéos, et adapté à une large gamme de tâches avec une efficacité accrue."
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles."
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat affiche de bonnes performances dans divers domaines tels que la sémantique, les mathématiques, le raisonnement, le code et les connaissances. Il dispose également de fonctionnalités de navigation sur le web, d'exécution de code, d'appels d'outils personnalisés et de raisonnement sur de longs textes. Il prend en charge 26 langues, y compris le japonais, le coréen et l'allemand."
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable."
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "Modèle utilisé pour optimiser les questions des utilisateurs",
|
390
390
|
"title": "Réécriture de la question de la base de connaissances"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "Modèle de nomination de sous-thème",
|
394
|
+
"modelDesc": "Modèle utilisé pour le renommage automatique des sous-thèmes",
|
395
|
+
"title": "Nommer automatiquement les sous-thèmes"
|
396
|
+
},
|
392
397
|
"title": "Agent système",
|
393
398
|
"topic": {
|
394
399
|
"label": "Modèle de nommage des sujets",
|
package/locales/it-IT/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "Assistente",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "Generazione in corso",
|
11
|
+
"inThread": "Non è possibile visualizzare nei sottoargomenti, passare all'area di discussione principale per aprire",
|
11
12
|
"thinking": "In fase di riflessione",
|
12
13
|
"thought": "Processo di pensiero",
|
13
14
|
"unknownTitle": "Opera non nominata"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "Elimina e rigenera",
|
69
|
+
"deleteDisabledByThreads": "Esistono sottoargomenti, non è possibile eliminare",
|
68
70
|
"regenerate": "Rigenera"
|
69
71
|
},
|
70
72
|
"newAgent": "Nuovo assistente",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "Riconoscimento in corso...",
|
122
124
|
"prettifying": "Miglioramento in corso..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "Sottoargomento",
|
128
|
+
"threadMessageCount": "{{messageCount}} messaggi",
|
129
|
+
"title": "Sottoargomento"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "Chat",
|
126
133
|
"historySummary": "Riepilogo storico",
|
@@ -16,6 +16,8 @@
|
|
16
16
|
"back": "Indietro",
|
17
17
|
"batchDelete": "Elimina in batch",
|
18
18
|
"blog": "Blog sui prodotti",
|
19
|
+
"branching": "Crea un sottotema",
|
20
|
+
"branchingDisable": "La funzione «sottotema» è disponibile solo nella versione server. Se desideri utilizzare questa funzione, passa alla modalità di distribuzione server o utilizza LobeChat Cloud.",
|
19
21
|
"cancel": "Annulla",
|
20
22
|
"changelog": "Registro modifiche",
|
21
23
|
"close": "Chiudi",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Math si concentra sulla risoluzione di problemi nel campo della matematica, fornendo risposte professionali a domande di alta difficoltà."
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue."
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2 è l'ultima serie del modello Qwen, in grado di superare i modelli open source ottimali di dimensioni simili e anche modelli di dimensioni maggiori. Qwen2 7B ha ottenuto vantaggi significativi in vari test, in particolare nella comprensione del codice e del cinese."
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instruct supporta un contesto di 16k, generando testi lunghi oltre 8K. Supporta chiamate di funzione e interazioni senza soluzione di continuità con sistemi esterni, aumentando notevolmente flessibilità e scalabilità. La conoscenza del modello è notevolmente aumentata e ha migliorato significativamente le capacità di codifica e matematica, con supporto per oltre 29 lingue."
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "Modello di base (V4), lunghezza del contesto di 4K, con potenti capacità generali."
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Large è il modello MoE con architettura Transformer open source più grande del settore, con un totale di 389 miliardi di parametri e 52 miliardi di parametri attivi."
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34B, mantenendo le eccellenti capacità linguistiche generali della serie originale, ha notevolmente migliorato la logica matematica e le capacità di codifica attraverso un addestramento incrementale su 500 miliardi di token di alta qualità."
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "Focalizzato su scenari di produttività, supporta l'elaborazione di compiti complessi e la generazione di testo efficiente, adatto per applicazioni professionali."
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4 è un potente assistente di programmazione AI, supporta domande intelligenti e completamento del codice in vari linguaggi di programmazione, migliorando l'efficienza dello sviluppo."
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9B è un modello di generazione di codice multilingue, supporta funzionalità complete tra cui completamento e generazione di codice, interprete di codice, ricerca in rete, chiamate di funzione e domande e risposte sul codice a livello di repository, coprendo vari scenari di sviluppo software. È un modello di generazione di codice di punta con meno di 10B di parametri."
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione."
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "Un nuovo modello open source che integra capacità generali e di codifica, mantenendo non solo le capacità conversazionali generali del modello Chat originale, ma anche la potente capacità di elaborazione del codice del modello Coder, allineandosi meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come i compiti di scrittura e il rispetto delle istruzioni."
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33B è un modello di linguaggio per codice, addestrato su 20 trilioni di dati, di cui l'87% è codice e il 13% è in cinese e inglese. Il modello introduce una dimensione della finestra di 16K e compiti di completamento, fornendo funzionalità di completamento del codice e riempimento di frammenti a livello di progetto."
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo."
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114 è il modello AI multimodale sperimentale più recente di Google, dotato di capacità di elaborazione rapida, supporta input testuali, visivi e video, ed è adatto per un'ampia gamma di compiti con un'efficiente scalabilità."
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121 è il più recente modello AI multimodale sperimentale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti con un'efficace scalabilità."
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati, con prestazioni eccezionali."
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chat mostra elevate prestazioni in vari aspetti come semantica, matematica, ragionamento, codice e conoscenza. Ha anche la capacità di navigare in rete, eseguire codice, chiamare strumenti personalizzati e inferire testi lunghi. Supporta 26 lingue, tra cui giapponese, coreano e tedesco."
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Air è una versione economica, con prestazioni simili a GLM-4, che offre velocità elevate a un prezzo accessibile."
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "Modello specificato per ottimizzare le domande degli utenti",
|
390
390
|
"title": "Riscrittura delle domande del knowledge base"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "Modello di denominazione dei sottoargomenti",
|
394
|
+
"modelDesc": "Modello designato per la rinominazione automatica dei sottoargomenti",
|
395
|
+
"title": "Rinominazione automatica dei sottoargomenti"
|
396
|
+
},
|
392
397
|
"title": "Assistente di sistema",
|
393
398
|
"topic": {
|
394
399
|
"label": "Modello di denominazione degli argomenti",
|
package/locales/ja-JP/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "エージェント",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "生成中",
|
11
|
+
"inThread": "サブトピックでは表示できません。メインの対話エリアに切り替えてください。",
|
11
12
|
"thinking": "思考中",
|
12
13
|
"thought": "思考過程",
|
13
14
|
"unknownTitle": "未命名の作品"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "削除して再生成",
|
69
|
+
"deleteDisabledByThreads": "サブトピックが存在するため、削除できません。",
|
68
70
|
"regenerate": "再生成"
|
69
71
|
},
|
70
72
|
"newAgent": "新しいエージェント",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "認識中...",
|
122
124
|
"prettifying": "整形中..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "サブトピック",
|
128
|
+
"threadMessageCount": "{{messageCount}} 件のメッセージ",
|
129
|
+
"title": "サブトピック"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "チャットメッセージ",
|
126
133
|
"historySummary": "履歴の要約",
|
@@ -16,6 +16,8 @@
|
|
16
16
|
"back": "戻る",
|
17
17
|
"batchDelete": "バッチ削除",
|
18
18
|
"blog": "製品ブログ",
|
19
|
+
"branching": "サブトピックを作成",
|
20
|
+
"branchingDisable": "「サブトピック」機能はサーバー版のみで利用可能です。この機能が必要な場合は、サーバー展開モードに切り替えるか、LobeChat Cloudを使用してください。",
|
19
21
|
"cancel": "キャンセル",
|
20
22
|
"changelog": "変更履歴",
|
21
23
|
"close": "閉じる",
|
@@ -176,6 +176,15 @@
|
|
176
176
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
177
177
|
"description": "Qwen2.5-Mathは、数学分野の問題解決に特化しており、高難度の問題に対して専門的な解答を提供します。"
|
178
178
|
},
|
179
|
+
"Qwen2-72B-Instruct": {
|
180
|
+
"description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを大幅に上回っています。"
|
181
|
+
},
|
182
|
+
"Qwen2-7B-Instruct": {
|
183
|
+
"description": "Qwen2はQwenモデルの最新シリーズで、同等の規模の最適なオープンソースモデルやそれ以上の規模のモデルを超えることができ、Qwen2 7Bは複数の評価で顕著な優位性を示し、特にコードと中国語理解において優れています。"
|
184
|
+
},
|
185
|
+
"Qwen2.5-72B-Instruct": {
|
186
|
+
"description": "Qwen2.5-72B-Instructは、16kのコンテキストをサポートし、8Kを超える長文を生成します。関数呼び出しと外部システムとのシームレスなインタラクションをサポートし、柔軟性と拡張性を大幅に向上させました。モデルの知識は明らかに増加し、コーディングと数学の能力が大幅に向上し、29以上の言語をサポートしています。"
|
187
|
+
},
|
179
188
|
"SenseChat": {
|
180
189
|
"description": "基本バージョンのモデル (V4)、4Kのコンテキスト長で、汎用能力が強力です。"
|
181
190
|
},
|
@@ -206,6 +215,9 @@
|
|
206
215
|
"Tencent/Hunyuan-A52B-Instruct": {
|
207
216
|
"description": "Hunyuan-Largeは業界最大のオープンソースTransformerアーキテクチャMoEモデルで、3890億の総パラメータ数と520億のアクティブパラメータ数を持っています。"
|
208
217
|
},
|
218
|
+
"Yi-34B-Chat": {
|
219
|
+
"description": "Yi-1.5-34Bは、元のシリーズモデルの優れた汎用言語能力を維持しつつ、5000億の高品質トークンを増分トレーニングすることで、数学的論理とコーディング能力を大幅に向上させました。"
|
220
|
+
},
|
209
221
|
"abab5.5-chat": {
|
210
222
|
"description": "生産性シーン向けであり、複雑なタスク処理と効率的なテキスト生成をサポートし、専門分野のアプリケーションに適しています。"
|
211
223
|
},
|
@@ -368,6 +380,9 @@
|
|
368
380
|
"codegeex-4": {
|
369
381
|
"description": "CodeGeeX-4は強力なAIプログラミングアシスタントで、さまざまなプログラミング言語のインテリジェントな質問応答とコード補完をサポートし、開発効率を向上させます。"
|
370
382
|
},
|
383
|
+
"codegeex4-all-9b": {
|
384
|
+
"description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完と生成、コードインタープリター、ウェブ検索、関数呼び出し、リポジトリレベルのコードQ&Aを含む包括的な機能をサポートし、ソフトウェア開発のさまざまなシーンをカバーしています。パラメータが10B未満のトップクラスのコード生成モデルです。"
|
385
|
+
},
|
371
386
|
"codegemma": {
|
372
387
|
"description": "CodeGemmaは、さまざまなプログラミングタスクに特化した軽量言語モデルであり、迅速な反復と統合をサポートします。"
|
373
388
|
},
|
@@ -422,6 +437,9 @@
|
|
422
437
|
"deepseek-chat": {
|
423
438
|
"description": "一般的な対話能力と強力なコード処理能力を兼ね備えた新しいオープンソースモデルであり、元のChatモデルの対話能力とCoderモデルのコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は、執筆タスクや指示に従う能力など、さまざまな面で大幅な向上を実現しました。"
|
424
439
|
},
|
440
|
+
"deepseek-coder-33B-instruct": {
|
441
|
+
"description": "DeepSeek Coder 33Bは、2兆のデータを基にトレーニングされたコード言語モデルで、そのうち87%がコード、13%が中英語です。モデルは16Kのウィンドウサイズと穴埋めタスクを導入し、プロジェクトレベルのコード補完とスニペット埋め機能を提供します。"
|
442
|
+
},
|
425
443
|
"deepseek-coder-v2": {
|
426
444
|
"description": "DeepSeek Coder V2は、オープンソースの混合エキスパートコードモデルであり、コードタスクにおいて優れた性能を発揮し、GPT4-Turboに匹敵します。"
|
427
445
|
},
|
@@ -476,6 +494,9 @@
|
|
476
494
|
"gemini-exp-1114": {
|
477
495
|
"description": "Gemini Exp 1114は、Googleの最新の実験的なマルチモーダルAIモデルで、迅速な処理能力を備え、テキスト、画像、動画の入力をサポートし、様々なタスクに効率的に対応できます。"
|
478
496
|
},
|
497
|
+
"gemini-exp-1121": {
|
498
|
+
"description": "Gemini Exp 1121は、Googleの最新の実験的なマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。"
|
499
|
+
},
|
479
500
|
"gemma-7b-it": {
|
480
501
|
"description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。"
|
481
502
|
},
|
@@ -503,6 +524,9 @@
|
|
503
524
|
"glm-4-0520": {
|
504
525
|
"description": "GLM-4-0520は最新のモデルバージョンで、高度に複雑で多様なタスクのために設計され、優れたパフォーマンスを発揮します。"
|
505
526
|
},
|
527
|
+
"glm-4-9b-chat": {
|
528
|
+
"description": "GLM-4-9B-Chatは、意味、数学、推論、コード、知識などの多方面で高い性能を示しています。また、ウェブブラウジング、コード実行、カスタムツール呼び出し、長文推論を備えています。日本語、韓国語、ドイツ語を含む26の言語をサポートしています。"
|
529
|
+
},
|
506
530
|
"glm-4-air": {
|
507
531
|
"description": "GLM-4-Airはコストパフォーマンスが高いバージョンで、GLM-4に近い性能を提供し、高速かつ手頃な価格です。"
|
508
532
|
},
|
@@ -389,6 +389,11 @@
|
|
389
389
|
"modelDesc": "ユーザーの質問を最適化するために指定されたモデル",
|
390
390
|
"title": "知識ベースの質問の書き換え"
|
391
391
|
},
|
392
|
+
"thread": {
|
393
|
+
"label": "サブトピック命名モデル",
|
394
|
+
"modelDesc": "サブトピックの自動命名に使用されるモデルを指定します",
|
395
|
+
"title": "サブトピックの自動命名"
|
396
|
+
},
|
392
397
|
"title": "システムアシスタント",
|
393
398
|
"topic": {
|
394
399
|
"label": "トピックネーミングモデル",
|
package/locales/ko-KR/chat.json
CHANGED
@@ -8,6 +8,7 @@
|
|
8
8
|
"agents": "도우미",
|
9
9
|
"artifact": {
|
10
10
|
"generating": "생성 중",
|
11
|
+
"inThread": "하위 주제에서는 볼 수 없습니다. 주 대화 영역으로 전환하여 열어주세요.",
|
11
12
|
"thinking": "생각 중",
|
12
13
|
"thought": "사고 과정",
|
13
14
|
"unknownTitle": "제목 없음"
|
@@ -65,6 +66,7 @@
|
|
65
66
|
},
|
66
67
|
"messageAction": {
|
67
68
|
"delAndRegenerate": "삭제하고 다시 생성",
|
69
|
+
"deleteDisabledByThreads": "하위 주제가 존재하여 삭제할 수 없습니다.",
|
68
70
|
"regenerate": "다시 생성"
|
69
71
|
},
|
70
72
|
"newAgent": "새 도우미",
|
@@ -121,6 +123,11 @@
|
|
121
123
|
"loading": "인식 중...",
|
122
124
|
"prettifying": "정제 중..."
|
123
125
|
},
|
126
|
+
"thread": {
|
127
|
+
"divider": "하위 주제",
|
128
|
+
"threadMessageCount": "{{messageCount}}개의 메시지",
|
129
|
+
"title": "하위 주제"
|
130
|
+
},
|
124
131
|
"tokenDetails": {
|
125
132
|
"chats": "채팅 메시지",
|
126
133
|
"historySummary": "역사 요약",
|