@lobehub/chat 1.76.0 → 1.77.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (135) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/Dockerfile +3 -2
  3. package/Dockerfile.database +3 -1
  4. package/Dockerfile.pglite +3 -1
  5. package/changelog/v1.json +18 -0
  6. package/locales/ar/common.json +12 -1
  7. package/locales/ar/error.json +10 -0
  8. package/locales/ar/models.json +12 -6
  9. package/locales/ar/setting.json +28 -0
  10. package/locales/bg-BG/common.json +12 -1
  11. package/locales/bg-BG/error.json +10 -0
  12. package/locales/bg-BG/models.json +12 -6
  13. package/locales/bg-BG/setting.json +28 -0
  14. package/locales/de-DE/common.json +12 -1
  15. package/locales/de-DE/error.json +10 -0
  16. package/locales/de-DE/models.json +12 -6
  17. package/locales/de-DE/setting.json +28 -0
  18. package/locales/en-US/common.json +12 -1
  19. package/locales/en-US/error.json +10 -0
  20. package/locales/en-US/models.json +12 -6
  21. package/locales/en-US/setting.json +28 -0
  22. package/locales/es-ES/common.json +12 -1
  23. package/locales/es-ES/error.json +10 -0
  24. package/locales/es-ES/models.json +12 -6
  25. package/locales/es-ES/setting.json +28 -0
  26. package/locales/fa-IR/common.json +12 -1
  27. package/locales/fa-IR/error.json +10 -0
  28. package/locales/fa-IR/models.json +12 -6
  29. package/locales/fa-IR/setting.json +28 -0
  30. package/locales/fr-FR/common.json +12 -1
  31. package/locales/fr-FR/error.json +10 -0
  32. package/locales/fr-FR/models.json +12 -6
  33. package/locales/fr-FR/setting.json +28 -0
  34. package/locales/it-IT/common.json +12 -1
  35. package/locales/it-IT/error.json +10 -0
  36. package/locales/it-IT/models.json +12 -6
  37. package/locales/it-IT/setting.json +28 -0
  38. package/locales/ja-JP/common.json +12 -1
  39. package/locales/ja-JP/error.json +10 -0
  40. package/locales/ja-JP/models.json +12 -6
  41. package/locales/ja-JP/setting.json +28 -0
  42. package/locales/ko-KR/common.json +12 -1
  43. package/locales/ko-KR/error.json +10 -0
  44. package/locales/ko-KR/models.json +12 -6
  45. package/locales/ko-KR/setting.json +28 -0
  46. package/locales/nl-NL/common.json +12 -1
  47. package/locales/nl-NL/error.json +10 -0
  48. package/locales/nl-NL/models.json +12 -6
  49. package/locales/nl-NL/setting.json +28 -0
  50. package/locales/pl-PL/common.json +12 -1
  51. package/locales/pl-PL/error.json +10 -0
  52. package/locales/pl-PL/models.json +12 -6
  53. package/locales/pl-PL/setting.json +28 -0
  54. package/locales/pt-BR/common.json +12 -1
  55. package/locales/pt-BR/error.json +10 -0
  56. package/locales/pt-BR/models.json +12 -6
  57. package/locales/pt-BR/setting.json +28 -0
  58. package/locales/ru-RU/common.json +12 -1
  59. package/locales/ru-RU/error.json +10 -0
  60. package/locales/ru-RU/models.json +12 -6
  61. package/locales/ru-RU/setting.json +28 -0
  62. package/locales/tr-TR/common.json +12 -1
  63. package/locales/tr-TR/error.json +10 -0
  64. package/locales/tr-TR/models.json +12 -6
  65. package/locales/tr-TR/setting.json +28 -0
  66. package/locales/vi-VN/common.json +12 -1
  67. package/locales/vi-VN/error.json +10 -0
  68. package/locales/vi-VN/models.json +12 -6
  69. package/locales/vi-VN/setting.json +28 -0
  70. package/locales/zh-CN/common.json +12 -1
  71. package/locales/zh-CN/error.json +10 -0
  72. package/locales/zh-CN/models.json +12 -6
  73. package/locales/zh-CN/setting.json +28 -0
  74. package/locales/zh-TW/common.json +12 -1
  75. package/locales/zh-TW/error.json +10 -0
  76. package/locales/zh-TW/models.json +12 -6
  77. package/locales/zh-TW/setting.json +28 -0
  78. package/package.json +1 -1
  79. package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +1 -1
  80. package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
  81. package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
  82. package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
  83. package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +133 -0
  84. package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
  85. package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
  86. package/src/app/[variants]/(main)/settings/tts/features/const.tsx +4 -0
  87. package/src/components/GroupIcon/index.tsx +25 -0
  88. package/src/components/IndexCard/index.tsx +143 -0
  89. package/src/components/ProgressItem/index.tsx +75 -0
  90. package/src/config/aiModels/openai.ts +10 -0
  91. package/src/database/repositories/dataExporter/index.test.ts +330 -0
  92. package/src/database/repositories/dataExporter/index.ts +216 -0
  93. package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
  94. package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
  95. package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
  96. package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
  97. package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
  98. package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
  99. package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
  100. package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
  101. package/src/database/repositories/dataImporter/index.ts +684 -289
  102. package/src/features/DataImporter/ImportDetail.tsx +203 -0
  103. package/src/features/DataImporter/SuccessResult.tsx +22 -6
  104. package/src/features/DataImporter/_deprecated.ts +43 -0
  105. package/src/features/DataImporter/config.ts +21 -0
  106. package/src/features/DataImporter/index.tsx +112 -31
  107. package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
  108. package/src/features/User/UserPanel/useMenu.tsx +0 -35
  109. package/src/features/User/__tests__/useMenu.test.tsx +0 -2
  110. package/src/locales/default/common.ts +11 -0
  111. package/src/locales/default/error.ts +10 -0
  112. package/src/locales/default/setting.ts +28 -0
  113. package/src/server/routers/lambda/exporter.ts +25 -0
  114. package/src/server/routers/lambda/importer.ts +19 -3
  115. package/src/server/routers/lambda/index.ts +2 -0
  116. package/src/services/config.ts +80 -135
  117. package/src/services/export/_deprecated.ts +155 -0
  118. package/src/services/export/client.ts +15 -0
  119. package/src/services/export/index.ts +6 -0
  120. package/src/services/export/server.ts +9 -0
  121. package/src/services/export/type.ts +5 -0
  122. package/src/services/import/_deprecated.ts +42 -1
  123. package/src/services/import/client.test.ts +1 -1
  124. package/src/services/import/client.ts +30 -1
  125. package/src/services/import/server.ts +70 -2
  126. package/src/services/import/type.ts +10 -0
  127. package/src/store/global/initialState.ts +1 -0
  128. package/src/types/export.ts +11 -0
  129. package/src/types/exportConfig.ts +2 -0
  130. package/src/types/importer.ts +15 -0
  131. package/src/types/user/settings/tts.ts +1 -1
  132. package/src/utils/client/exportFile.ts +21 -0
  133. package/vitest.config.ts +1 -1
  134. package/src/utils/config.ts +0 -109
  135. /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 is a mixed expert (MoE) language model with 671 billion parameters, utilizing multi-head latent attention (MLA) and the DeepSeekMoE architecture, combined with a load balancing strategy without auxiliary loss to optimize inference and training efficiency. Pre-trained on 14.8 trillion high-quality tokens and fine-tuned with supervision and reinforcement learning, DeepSeek-V3 outperforms other open-source models and approaches leading closed-source models."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 is a mixture of experts (MoE) language model with 671 billion parameters, utilizing multi-head latent attention (MLA) and the DeepSeekMoE architecture, combined with a load balancing strategy without auxiliary loss to optimize inference and training efficiency. Pre-trained on 14.8 trillion high-quality tokens and fine-tuned with supervised learning and reinforcement learning, DeepSeek-V3 outperforms other open-source models and approaches leading closed-source models in performance."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview is an innovative natural language processing model capable of efficiently handling complex dialogue generation and context understanding tasks."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 is a MoE model developed by Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., achieving outstanding results in multiple evaluations and ranking first among open-source models on mainstream leaderboards. Compared to the V2.5 model, V3 has achieved a threefold increase in generation speed, providing users with a faster and smoother experience."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 is a 671B parameter MoE model, excelling in programming and technical capabilities, contextual understanding, and long text processing."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro is Google's high-performance AI model, designed for extensive task scaling."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash is Google's latest multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it efficient for scaling across various tasks."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001 is an efficient multimodal model that supports extensive application scaling."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Gemini 2.0 Flash is a variant of the model optimized for cost-effectiveness and low latency."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "A Gemini 2.0 Flash model optimized for cost-effectiveness and low latency."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp is Google's latest experimental multimodal AI model, featuring next-generation capabilities, exceptional speed, native tool invocation, and multimodal generation."
910
910
  },
@@ -1082,6 +1082,9 @@
1082
1082
  "gpt-4o-mini-realtime-preview": {
1083
1083
  "description": "GPT-4o-mini real-time version, supporting real-time audio and text input and output."
1084
1084
  },
1085
+ "gpt-4o-mini-tts": {
1086
+ "description": "GPT-4o mini TTS is a text-to-speech model based on GPT-4o mini, providing high-quality speech generation at a lower cost."
1087
+ },
1085
1088
  "gpt-4o-realtime-preview": {
1086
1089
  "description": "GPT-4o real-time version, supporting real-time audio and text input and output."
1087
1090
  },
@@ -1715,6 +1718,9 @@
1715
1718
  "qwen2.5-math-7b-instruct": {
1716
1719
  "description": "The Qwen-Math model possesses strong capabilities for solving mathematical problems."
1717
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "The Qwen-Omni series models support input of various modalities, including video, audio, images, and text, and output audio and text."
1723
+ },
1718
1724
  "qwen2.5-vl-32b-instruct": {
1719
1725
  "description": "The Qwen2.5-VL model series enhances the model's intelligence level, practicality, and applicability, delivering superior performance in scenarios such as natural conversations, content creation, professional knowledge services, and code development. The 32B version employs reinforcement learning techniques to optimize the model, offering more human-preferred output styles, enhanced reasoning capabilities for complex mathematical problems, and fine-grained image understanding and reasoning compared to other models in the Qwen2.5-VL series."
1720
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Theme Settings"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Export",
353
+ "exportType": {
354
+ "agent": "Export Assistant Settings",
355
+ "agentWithMessage": "Export Assistant and Messages",
356
+ "all": "Export Global Settings and All Assistant Data",
357
+ "allAgent": "Export All Assistant Settings",
358
+ "allAgentWithMessage": "Export All Assistants and Messages",
359
+ "globalSetting": "Export Global Settings"
360
+ },
361
+ "title": "Export Data"
362
+ },
363
+ "import": {
364
+ "button": "Import",
365
+ "title": "Import Data"
366
+ },
367
+ "title": "Advanced Operations"
368
+ },
369
+ "desc": "Current storage usage in the browser",
370
+ "embeddings": {
371
+ "used": "Vector Storage"
372
+ },
373
+ "title": "Data Storage",
374
+ "used": "Storage Usage"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Submit Assistant",
351
378
  "identifier": "Assistant Identifier",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Hotkeys",
440
467
  "llm": "Language Model",
441
468
  "provider": "AI Service Provider",
469
+ "storage": "Data Storage",
442
470
  "sync": "Cloud Sync",
443
471
  "system-agent": "System Assistant",
444
472
  "tts": "Text-to-Speech"
@@ -205,7 +205,8 @@
205
205
  "sessions": "Asistentes",
206
206
  "skips": "Saltos de duplicados",
207
207
  "topics": "Temas",
208
- "type": "Tipo de datos"
208
+ "type": "Tipo de datos",
209
+ "update": "Registro actualizado"
209
210
  },
210
211
  "title": "Importar datos",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "Velocidad de carga"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "Confirmar importación",
220
+ "tables": {
221
+ "count": "Número de registros",
222
+ "name": "Nombre de la tabla"
223
+ },
224
+ "title": "Vista previa de la importación de datos",
225
+ "totalRecords": "Se importarán un total de {{count}} registros",
226
+ "totalTables": "{{count}} tablas"
227
+ },
217
228
  "information": "Comunidad e Información",
218
229
  "installPWA": "Instalar la aplicación del navegador",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "Detalles del error",
17
17
  "title": "Solicitud fallida"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "Razón del error: {{reason}}",
22
+ "title": "Importación fallida"
23
+ },
24
+ "incompatible": {
25
+ "description": "Este archivo fue exportado desde una versión más alta, por favor intente actualizar a la última versión y luego vuelva a importar",
26
+ "title": "La aplicación actual no admite la importación de este archivo"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "Serás redirigido automáticamente a la página de inicio de sesión",
21
31
  "title": "Por favor, inicie sesión para utilizar esta función"
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 es un modelo de lenguaje de expertos mixtos (MoE) con 671 mil millones de parámetros, que utiliza atención potencial de múltiples cabezas (MLA) y la arquitectura DeepSeekMoE, combinando estrategias de balanceo de carga sin pérdidas auxiliares para optimizar la eficiencia de inferencia y entrenamiento. Preentrenado en 14.8 billones de tokens de alta calidad, y ajustado mediante supervisión y aprendizaje por refuerzo, DeepSeek-V3 supera a otros modelos de código abierto y se acerca a los modelos cerrados líderes."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 es un modelo de lenguaje de expertos mixtos (MoE) con 671 mil millones de parámetros, que utiliza atención latente de múltiples cabezas (MLA) y la arquitectura DeepSeekMoE, combinando una estrategia de balanceo de carga sin pérdidas auxiliares para optimizar la eficiencia de inferencia y entrenamiento. Preentrenado en 14.8 billones de tokens de alta calidad y ajustado mediante supervisión y aprendizaje por refuerzo, DeepSeek-V3 supera en rendimiento a otros modelos de código abierto, acercándose a los modelos cerrados líderes."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 es un modelo MoE desarrollado por Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., que ha destacado en múltiples evaluaciones, ocupando el primer lugar en la lista de modelos de código abierto. En comparación con el modelo V2.5, la velocidad de generación se ha incrementado tres veces, brindando a los usuarios una experiencia de uso más rápida y fluida."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 es un modelo MoE de 671B parámetros, destacándose en habilidades de programación y técnicas, comprensión del contexto y procesamiento de textos largos."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google, diseñado para la escalabilidad en una amplia gama de tareas."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash es el último modelo de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido, admite entradas de texto, imágenes y videos, y es adecuado para la escalabilidad eficiente en diversas tareas."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente, que admite la escalabilidad para aplicaciones amplias."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Variante del modelo Gemini 2.0 Flash, optimizada para objetivos como la rentabilidad y la baja latencia."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "Un modelo Gemini 2.0 Flash optimizado para objetivos de costo-efectividad y baja latencia."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp es el último modelo experimental de IA multimodal de Google, con características de próxima generación, velocidad excepcional, llamadas nativas a herramientas y generación multimodal."
910
910
  },
@@ -1082,6 +1082,9 @@
1082
1082
  "gpt-4o-mini-realtime-preview": {
1083
1083
  "description": "Versión en tiempo real de GPT-4o-mini, que admite entrada y salida de audio y texto en tiempo real."
1084
1084
  },
1085
+ "gpt-4o-mini-tts": {
1086
+ "description": "GPT-4o mini TTS es un modelo de texto a voz basado en GPT-4o mini, que ofrece generación de voz de alta calidad a un costo más bajo."
1087
+ },
1085
1088
  "gpt-4o-realtime-preview": {
1086
1089
  "description": "Versión en tiempo real de GPT-4o, que admite entrada y salida de audio y texto en tiempo real."
1087
1090
  },
@@ -1715,6 +1718,9 @@
1715
1718
  "qwen2.5-math-7b-instruct": {
1716
1719
  "description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
1717
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "La serie de modelos Qwen-Omni admite la entrada de datos de múltiples modalidades, incluyendo video, audio, imágenes y texto, y produce audio y texto como salida."
1723
+ },
1718
1724
  "qwen2.5-vl-32b-instruct": {
1719
1725
  "description": "La serie de modelos Qwen2.5-VL ha mejorado el nivel de inteligencia, utilidad y aplicabilidad del modelo, optimizando su rendimiento en escenarios como conversaciones naturales, creación de contenido, servicios de conocimiento especializado y desarrollo de código. La versión 32B utiliza técnicas de aprendizaje por refuerzo para optimizar el modelo, ofreciendo en comparación con otros modelos de la serie Qwen2.5 VL, un estilo de salida más acorde con las preferencias humanas, capacidad de razonamiento para problemas matemáticos complejos, así como comprensión y razonamiento detallado de imágenes."
1720
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Configuración de tema"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Exportar",
353
+ "exportType": {
354
+ "agent": "Exportar configuración del asistente",
355
+ "agentWithMessage": "Exportar asistente y mensajes",
356
+ "all": "Exportar configuración global y todos los datos del asistente",
357
+ "allAgent": "Exportar todas las configuraciones del asistente",
358
+ "allAgentWithMessage": "Exportar todos los asistentes y mensajes",
359
+ "globalSetting": "Exportar configuración global"
360
+ },
361
+ "title": "Exportar datos"
362
+ },
363
+ "import": {
364
+ "button": "Importar",
365
+ "title": "Importar datos"
366
+ },
367
+ "title": "Operaciones avanzadas"
368
+ },
369
+ "desc": "Uso de almacenamiento en el navegador actual",
370
+ "embeddings": {
371
+ "used": "Almacenamiento de vectores"
372
+ },
373
+ "title": "Almacenamiento de datos",
374
+ "used": "Uso de almacenamiento"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Enviar asistente",
351
378
  "identifier": "Identificador del asistente",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Atajos de teclado",
440
467
  "llm": "Modelo de lenguaje",
441
468
  "provider": "Proveedor de servicios de IA",
469
+ "storage": "Almacenamiento de datos",
442
470
  "sync": "Sincronización en la nube",
443
471
  "system-agent": "Asistente del sistema",
444
472
  "tts": "Servicio de voz"
@@ -205,7 +205,8 @@
205
205
  "sessions": "دستیار",
206
206
  "skips": "تکراری‌ها رد شدند",
207
207
  "topics": "موضوعات",
208
- "type": "نوع داده"
208
+ "type": "نوع داده",
209
+ "update": "به‌روزرسانی رکورد"
209
210
  },
210
211
  "title": "وارد کردن داده‌ها",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "سرعت آپلود"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "تأیید واردات",
220
+ "tables": {
221
+ "count": "تعداد رکوردها",
222
+ "name": "نام جدول"
223
+ },
224
+ "title": "پیش‌نمایش داده‌های وارداتی",
225
+ "totalRecords": "در مجموع {{count}} رکورد وارد خواهد شد",
226
+ "totalTables": "{{count}} جدول"
227
+ },
217
228
  "information": "جامعه و اطلاعات",
218
229
  "installPWA": "نصب برنامه وب پیشرو (PWA)",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "جزئیات خطا",
17
17
  "title": "درخواست ناموفق بود"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "علت خطا: {{reason}}",
22
+ "title": "واردات ناموفق"
23
+ },
24
+ "incompatible": {
25
+ "description": "این فایل توسط نسخه بالاتری صادر شده است، لطفاً سعی کنید به آخرین نسخه ارتقا دهید و دوباره وارد کنید",
26
+ "title": "برنامه فعلی از واردات این فایل پشتیبانی نمی‌کند"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "به زودی به صفحه ورود منتقل خواهید شد",
21
31
  "title": "لطفاً پس از ورود از این قابلیت استفاده کنید"
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده می‌کند و با استراتژی تعادل بار بدون ضرر کمکی بهینه‌سازی کارایی استنتاج و آموزش را انجام می‌دهد. این مدل با پیش‌آموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدل‌های متن‌باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 یک مدل زبانی با ۶۷۱۰ میلیارد پارامتر و از نوع متخصص مختلط (MoE) است که از توجه چندسر (MLA) و معماری DeepSeekMoE استفاده می‌کند و با ترکیب استراتژی تعادل بار بدون ضرر کمکی، کارایی استنتاج و آموزش را بهینه می‌سازد. با پیش‌آموزش بر روی ۱۴.۸ تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، DeepSeek-V3 در عملکرد از سایر مدل‌های متن‌باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 مدل MoE توسعه یافته توسط شرکت تحقیقاتی فناوری هوش مصنوعی DeepSeek در هانگژو است که در چندین ارزیابی عملکرد برجسته‌ای دارد و در لیست‌های اصلی در صدر مدل‌های متن‌باز قرار دارد. V3 نسبت به مدل V2.5 سرعت تولید را 3 برابر افزایش داده و تجربه کاربری سریع‌تر و روان‌تری را برای کاربران فراهم می‌کند."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در زمینه‌های برنامه‌نویسی و توانایی‌های فنی، درک زمینه و پردازش متن‌های طولانی برتری دارد."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای Google است که برای گسترش وظایف گسترده طراحی شده است."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash جدیدترین مدل هوش مصنوعی چندوجهی گوگل است که دارای قابلیت پردازش سریع بوده و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش کارآمد در انواع وظایف مناسب است."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "جمینی 1.5 فلش 001 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی می‌کند."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "مدل متغیر Gemini 2.0 Flash برای بهینه‌سازی هزینه و تأخیر کم طراحی شده است."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "مدل Gemini 2.0 Flash که برای بهینه‌سازی هزینه و تأخیر کم طراحی شده است."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp جدیدترین مدل AI چندرسانه‌ای آزمایشی گوگل است که دارای ویژگی‌های نسل بعدی، سرعت فوق‌العاده، فراخوانی ابزار بومی و تولید چندرسانه‌ای است."
910
910
  },
@@ -1082,6 +1082,9 @@
1082
1082
  "gpt-4o-mini-realtime-preview": {
1083
1083
  "description": "نسخه زنده GPT-4o-mini، پشتیبانی از ورودی و خروجی صوتی و متنی به صورت زنده."
1084
1084
  },
1085
+ "gpt-4o-mini-tts": {
1086
+ "description": "GPT-4o mini TTS یک مدل تبدیل متن به گفتار است که بر اساس GPT-4o mini ساخته شده است و با قیمت پایین تری از GPT-4o mini ارائه می‌دهد."
1087
+ },
1085
1088
  "gpt-4o-realtime-preview": {
1086
1089
  "description": "نسخه زنده GPT-4o، پشتیبانی از ورودی و خروجی صوتی و متنی به صورت زنده."
1087
1090
  },
@@ -1715,6 +1718,9 @@
1715
1718
  "qwen2.5-math-7b-instruct": {
1716
1719
  "description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
1717
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "مدل‌های سری Qwen-Omni از ورودی‌های چندگانه شامل ویدیو، صدا، تصویر و متن پشتیبانی می‌کنند و خروجی‌هایی به صورت صدا و متن ارائه می‌دهند."
1723
+ },
1718
1724
  "qwen2.5-vl-32b-instruct": {
1719
1725
  "description": "سری مدل‌های Qwen2.5-VL سطح هوش، کاربردی بودن و مناسب بودن مدل را افزایش داده است تا عملکرد بهتری در مکالمات طبیعی، خلق محتوا، ارائه خدمات دانش تخصصی و توسعه کد ارائه دهد. نسخه 32B با استفاده از تکنیک‌های یادگیری تقویتی مدل را بهینه کرده است و نسبت به سایر مدل‌های سری Qwen2.5 VL، سبک خروجی مطابق با ترجیحات انسانی، توانایی استدلال در مسائل ریاضی پیچیده و درک و استدلال دقیق تصاویر را فراهم می‌کند."
1720
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "تنظیمات تم"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "صادر کردن",
353
+ "exportType": {
354
+ "agent": "صادر کردن تنظیمات دستیار",
355
+ "agentWithMessage": "صادر کردن دستیار و پیام",
356
+ "all": "صادر کردن تنظیمات جهانی و تمام داده‌های دستیار",
357
+ "allAgent": "صادر کردن تمام تنظیمات دستیار",
358
+ "allAgentWithMessage": "صادر کردن تمام دستیارها و پیام‌ها",
359
+ "globalSetting": "صادر کردن تنظیمات جهانی"
360
+ },
361
+ "title": "صادر کردن داده‌ها"
362
+ },
363
+ "import": {
364
+ "button": "وارد کردن",
365
+ "title": "وارد کردن داده‌ها"
366
+ },
367
+ "title": "عملیات پیشرفته"
368
+ },
369
+ "desc": "مقدار ذخیره‌سازی در مرورگر فعلی",
370
+ "embeddings": {
371
+ "used": "ذخیره‌سازی برداری"
372
+ },
373
+ "title": "ذخیره‌سازی داده‌ها",
374
+ "used": "مقدار ذخیره‌سازی"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "ارسال دستیار",
351
378
  "identifier": "شناسه دستیار",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "کلیدهای میانبر",
440
467
  "llm": "مدل زبان",
441
468
  "provider": "ارائه دهنده خدمات هوش مصنوعی",
469
+ "storage": "ذخیره‌سازی داده‌ها",
442
470
  "sync": "همگام‌سازی ابری",
443
471
  "system-agent": "دستیار سیستم",
444
472
  "tts": "خدمات صوتی"
@@ -205,7 +205,8 @@
205
205
  "sessions": "Agents",
206
206
  "skips": "Éléments ignorés en double",
207
207
  "topics": "Sujets",
208
- "type": "Type de données"
208
+ "type": "Type de données",
209
+ "update": "Mise à jour des enregistrements"
209
210
  },
210
211
  "title": "Importer des données",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "Vitesse de téléchargement"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "Confirmer l'importation",
220
+ "tables": {
221
+ "count": "Nombre d'enregistrements",
222
+ "name": "Nom de la table"
223
+ },
224
+ "title": "Aperçu de l'importation des données",
225
+ "totalRecords": "Au total, {{count}} enregistrements seront importés",
226
+ "totalTables": "{{count}} tables"
227
+ },
217
228
  "information": "Communauté et Informations",
218
229
  "installPWA": "Installer l'application du navigateur",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "Détails de l'erreur",
17
17
  "title": "Échec de la requête"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "Raison de l'erreur : {{reason}}",
22
+ "title": "Échec de l'importation"
23
+ },
24
+ "incompatible": {
25
+ "description": "Ce fichier a été exporté par une version supérieure, veuillez essayer de mettre à jour vers la dernière version avant de réimporter",
26
+ "title": "L'application actuelle ne prend pas en charge l'importation de ce fichier"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "Vous allez être redirigé vers la page de connexion",
21
31
  "title": "Veuillez vous connecter pour utiliser cette fonctionnalité"
@@ -221,6 +221,9 @@
221
221
  "Pro/deepseek-ai/DeepSeek-V3": {
222
222
  "description": "DeepSeek-V3 est un modèle de langage à experts mixtes (MoE) avec 671 milliards de paramètres, utilisant une attention potentielle multi-tête (MLA) et une architecture DeepSeekMoE, combinant une stratégie d'équilibrage de charge sans perte auxiliaire pour optimiser l'efficacité d'inférence et d'entraînement. Pré-entraîné sur 14,8 billions de tokens de haute qualité, et affiné par supervision et apprentissage par renforcement, DeepSeek-V3 surpasse d'autres modèles open source et se rapproche des modèles fermés de premier plan."
223
223
  },
224
+ "Pro/deepseek-ai/DeepSeek-V3-1226": {
225
+ "description": "DeepSeek-V3 est un modèle de langage hybride d'experts (MoE) avec 6710 milliards de paramètres, utilisant une attention latente multi-têtes (MLA) et l'architecture DeepSeekMoE, combinée à une stratégie d'équilibrage de charge sans perte auxiliaire, optimisant l'efficacité de l'inférence et de l'entraînement. Pré-entraîné sur 14,8 trillions de tokens de haute qualité, suivi d'un ajustement supervisé et d'un apprentissage par renforcement, DeepSeek-V3 surpasse les autres modèles open source en termes de performance, se rapprochant des modèles fermés de pointe."
226
+ },
224
227
  "QwQ-32B-Preview": {
225
228
  "description": "QwQ-32B-Preview est un modèle de traitement du langage naturel innovant, capable de gérer efficacement des tâches complexes de génération de dialogues et de compréhension contextuelle."
226
229
  },
@@ -743,6 +746,9 @@
743
746
  "deepseek-v3": {
744
747
  "description": "DeepSeek-V3 est un modèle MoE développé par la société Hangzhou DeepSeek AI Technology Research Co., Ltd., avec des performances exceptionnelles dans plusieurs évaluations, se classant au premier rang des modèles open source dans les classements principaux. Par rapport au modèle V2.5, la vitesse de génération a été multipliée par 3, offrant aux utilisateurs une expérience d'utilisation plus rapide et fluide."
745
748
  },
749
+ "deepseek-v3-0324": {
750
+ "description": "DeepSeek-V3-0324 est un modèle MoE de 671 milliards de paramètres, se distinguant par ses capacités en programmation et en technique, ainsi que par sa compréhension du contexte et son traitement de longs textes."
751
+ },
746
752
  "deepseek/deepseek-chat": {
747
753
  "description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions."
748
754
  },
@@ -845,9 +851,6 @@
845
851
  "gemini-1.0-pro-latest": {
846
852
  "description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches."
847
853
  },
848
- "gemini-1.5-flash": {
849
- "description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodale de Google, doté d'une capacité de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, et adapté à une extension efficace pour diverses tâches."
850
- },
851
854
  "gemini-1.5-flash-001": {
852
855
  "description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées."
853
856
  },
@@ -902,9 +905,6 @@
902
905
  "gemini-2.0-flash-lite-001": {
903
906
  "description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
904
907
  },
905
- "gemini-2.0-flash-lite-preview-02-05": {
906
- "description": "Un modèle Gemini 2.0 Flash optimisé pour des objectifs de rentabilité et de faible latence."
907
- },
908
908
  "gemini-2.0-flash-thinking-exp-01-21": {
909
909
  "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
910
910
  },
@@ -1082,6 +1082,9 @@
1082
1082
  "gpt-4o-mini-realtime-preview": {
1083
1083
  "description": "Version mini en temps réel de GPT-4o, prenant en charge les entrées et sorties audio et textuelles en temps réel."
1084
1084
  },
1085
+ "gpt-4o-mini-tts": {
1086
+ "description": "GPT-4o mini TTS est un modèle de synthèse vocale basé sur GPT-4o mini, offrant une génération de voix de haute qualité à un coût plus faible."
1087
+ },
1085
1088
  "gpt-4o-realtime-preview": {
1086
1089
  "description": "Version en temps réel de GPT-4o, prenant en charge les entrées et sorties audio et textuelles en temps réel."
1087
1090
  },
@@ -1715,6 +1718,9 @@
1715
1718
  "qwen2.5-math-7b-instruct": {
1716
1719
  "description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
1717
1720
  },
1721
+ "qwen2.5-omni-7b": {
1722
+ "description": "La série de modèles Qwen-Omni prend en charge l'entrée de données multimodales, y compris des vidéos, de l'audio, des images et du texte, et produit de l'audio et du texte en sortie."
1723
+ },
1718
1724
  "qwen2.5-vl-32b-instruct": {
1719
1725
  "description": "La série de modèles Qwen2.5-VL améliore l'intelligence, l'utilité et l'adaptabilité des modèles, offrant des performances supérieures dans des scénarios tels que les conversations naturelles, la création de contenu, les services d'expertise professionnelle et le développement de code. La version 32B utilise des techniques d'apprentissage par renforcement pour optimiser le modèle, fournissant par rapport aux autres modèles de la série Qwen2.5 VL un style de sortie plus conforme aux préférences humaines, une capacité de raisonnement sur des problèmes mathématiques complexes, ainsi qu'une compréhension fine et un raisonnement sur les images."
1720
1726
  },
@@ -346,6 +346,33 @@
346
346
  },
347
347
  "title": "Paramètres du thème"
348
348
  },
349
+ "storage": {
350
+ "actions": {
351
+ "export": {
352
+ "button": "Exporter",
353
+ "exportType": {
354
+ "agent": "Exporter les paramètres de l'agent",
355
+ "agentWithMessage": "Exporter les paramètres de l'agent et les messages",
356
+ "all": "Exporter les paramètres globaux et toutes les données des agents",
357
+ "allAgent": "Exporter tous les paramètres des agents",
358
+ "allAgentWithMessage": "Exporter tous les agents et les messages",
359
+ "globalSetting": "Exporter les paramètres globaux"
360
+ },
361
+ "title": "Exporter les données"
362
+ },
363
+ "import": {
364
+ "button": "Importer",
365
+ "title": "Importer les données"
366
+ },
367
+ "title": "Opérations avancées"
368
+ },
369
+ "desc": "Utilisation du stockage dans le navigateur actuel",
370
+ "embeddings": {
371
+ "used": "Stockage des vecteurs"
372
+ },
373
+ "title": "Stockage des données",
374
+ "used": "Utilisation du stockage"
375
+ },
349
376
  "submitAgentModal": {
350
377
  "button": "Soumettre l'agent",
351
378
  "identifier": "Identifiant de l'agent",
@@ -439,6 +466,7 @@
439
466
  "hotkey": "Raccourcis clavier",
440
467
  "llm": "Modèle de langue",
441
468
  "provider": "Fournisseur de services d'IA",
469
+ "storage": "Stockage des données",
442
470
  "sync": "Synchronisation cloud",
443
471
  "system-agent": "Agent système",
444
472
  "tts": "Service vocal"
@@ -205,7 +205,8 @@
205
205
  "sessions": "Sessioni",
206
206
  "skips": "Elementi saltati",
207
207
  "topics": "Argomenti",
208
- "type": "Tipo di dati"
208
+ "type": "Tipo di dati",
209
+ "update": "Aggiornamento registrazione"
209
210
  },
210
211
  "title": "Importa dati",
211
212
  "uploading": {
@@ -214,6 +215,16 @@
214
215
  "speed": "Velocità di caricamento"
215
216
  }
216
217
  },
218
+ "importPreview": {
219
+ "confirmImport": "Conferma importazione",
220
+ "tables": {
221
+ "count": "Numero di registrazioni",
222
+ "name": "Nome della tabella"
223
+ },
224
+ "title": "Anteprima dei dati da importare",
225
+ "totalRecords": "Totale di {{count}} registrazioni da importare",
226
+ "totalTables": "{{count}} tabelle"
227
+ },
217
228
  "information": "Comunità e informazioni",
218
229
  "installPWA": "Installa l'applicazione del browser",
219
230
  "lang": {
@@ -16,6 +16,16 @@
16
16
  "detail": "Dettagli errore",
17
17
  "title": "Richiesta fallita"
18
18
  },
19
+ "import": {
20
+ "importConfigFile": {
21
+ "description": "Motivo dell'errore: {{reason}}",
22
+ "title": "Importazione fallita"
23
+ },
24
+ "incompatible": {
25
+ "description": "Questo file è stato esportato da una versione più recente, si prega di provare ad aggiornare all'ultima versione e riprovare l'importazione",
26
+ "title": "L'app attuale non supporta l'importazione di questo file"
27
+ }
28
+ },
19
29
  "loginRequired": {
20
30
  "desc": "Verrai reindirizzato automaticamente alla pagina di accesso",
21
31
  "title": "Accedi per utilizzare questa funzione"