@lobehub/chat 1.76.1 → 1.77.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/common.json +13 -2
- package/locales/ar/error.json +10 -0
- package/locales/ar/models.json +9 -6
- package/locales/ar/setting.json +28 -0
- package/locales/bg-BG/common.json +13 -2
- package/locales/bg-BG/error.json +10 -0
- package/locales/bg-BG/models.json +9 -6
- package/locales/bg-BG/setting.json +28 -0
- package/locales/de-DE/common.json +13 -2
- package/locales/de-DE/error.json +10 -0
- package/locales/de-DE/models.json +9 -6
- package/locales/de-DE/setting.json +28 -0
- package/locales/en-US/common.json +13 -2
- package/locales/en-US/error.json +10 -0
- package/locales/en-US/models.json +9 -6
- package/locales/en-US/setting.json +28 -0
- package/locales/es-ES/common.json +13 -2
- package/locales/es-ES/error.json +10 -0
- package/locales/es-ES/models.json +9 -6
- package/locales/es-ES/setting.json +28 -0
- package/locales/fa-IR/common.json +13 -2
- package/locales/fa-IR/error.json +10 -0
- package/locales/fa-IR/models.json +9 -6
- package/locales/fa-IR/setting.json +28 -0
- package/locales/fr-FR/common.json +13 -2
- package/locales/fr-FR/error.json +10 -0
- package/locales/fr-FR/models.json +9 -6
- package/locales/fr-FR/setting.json +28 -0
- package/locales/it-IT/common.json +13 -2
- package/locales/it-IT/error.json +10 -0
- package/locales/it-IT/models.json +9 -6
- package/locales/it-IT/setting.json +28 -0
- package/locales/ja-JP/common.json +13 -2
- package/locales/ja-JP/error.json +10 -0
- package/locales/ja-JP/models.json +9 -6
- package/locales/ja-JP/setting.json +28 -0
- package/locales/ko-KR/common.json +13 -2
- package/locales/ko-KR/error.json +10 -0
- package/locales/ko-KR/models.json +9 -6
- package/locales/ko-KR/setting.json +28 -0
- package/locales/nl-NL/common.json +13 -2
- package/locales/nl-NL/error.json +10 -0
- package/locales/nl-NL/models.json +9 -6
- package/locales/nl-NL/setting.json +28 -0
- package/locales/pl-PL/common.json +13 -2
- package/locales/pl-PL/error.json +10 -0
- package/locales/pl-PL/models.json +9 -6
- package/locales/pl-PL/setting.json +28 -0
- package/locales/pt-BR/common.json +13 -2
- package/locales/pt-BR/error.json +10 -0
- package/locales/pt-BR/models.json +9 -6
- package/locales/pt-BR/setting.json +28 -0
- package/locales/ru-RU/common.json +13 -2
- package/locales/ru-RU/error.json +10 -0
- package/locales/ru-RU/models.json +9 -6
- package/locales/ru-RU/setting.json +28 -0
- package/locales/tr-TR/common.json +13 -2
- package/locales/tr-TR/error.json +10 -0
- package/locales/tr-TR/models.json +9 -6
- package/locales/tr-TR/setting.json +28 -0
- package/locales/vi-VN/common.json +13 -2
- package/locales/vi-VN/error.json +10 -0
- package/locales/vi-VN/models.json +9 -6
- package/locales/vi-VN/setting.json +28 -0
- package/locales/zh-CN/common.json +13 -2
- package/locales/zh-CN/error.json +10 -0
- package/locales/zh-CN/models.json +10 -7
- package/locales/zh-CN/setting.json +28 -0
- package/locales/zh-TW/common.json +13 -2
- package/locales/zh-TW/error.json +10 -0
- package/locales/zh-TW/models.json +9 -6
- package/locales/zh-TW/setting.json +28 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/(mobile)/me/data/features/Category.tsx +2 -2
- package/src/app/[variants]/(main)/chat/features/Migration/UpgradeButton.tsx +2 -1
- package/src/app/[variants]/(main)/settings/common/features/Common.tsx +0 -44
- package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +40 -14
- package/src/app/[variants]/(main)/settings/storage/Advanced.tsx +108 -0
- package/src/app/[variants]/(main)/settings/storage/IndexedDBStorage.tsx +55 -0
- package/src/app/[variants]/(main)/settings/storage/page.tsx +17 -0
- package/src/components/GroupIcon/index.tsx +25 -0
- package/src/components/IndexCard/index.tsx +143 -0
- package/src/components/ProgressItem/index.tsx +75 -0
- package/src/database/models/__tests__/session.test.ts +21 -0
- package/src/database/repositories/dataExporter/index.test.ts +330 -0
- package/src/database/repositories/dataExporter/index.ts +216 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agents.json +65 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/agentsToSessions.json +541 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/topic.json +269 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/userSettings.json +18 -0
- package/src/database/repositories/dataImporter/__tests__/fixtures/with-client-id.json +778 -0
- package/src/database/repositories/dataImporter/__tests__/index.test.ts +120 -880
- package/src/database/repositories/dataImporter/deprecated/__tests__/index.test.ts +940 -0
- package/src/database/repositories/dataImporter/deprecated/index.ts +326 -0
- package/src/database/repositories/dataImporter/index.ts +684 -289
- package/src/database/server/models/session.ts +85 -9
- package/src/features/DataImporter/ImportDetail.tsx +203 -0
- package/src/features/DataImporter/SuccessResult.tsx +22 -6
- package/src/features/DataImporter/_deprecated.ts +43 -0
- package/src/features/DataImporter/config.ts +21 -0
- package/src/features/DataImporter/index.tsx +112 -31
- package/src/features/DevPanel/PostgresViewer/DataTable/index.tsx +6 -0
- package/src/features/User/UserPanel/useMenu.tsx +1 -36
- package/src/features/User/__tests__/useMenu.test.tsx +0 -2
- package/src/locales/default/common.ts +12 -1
- package/src/locales/default/error.ts +10 -0
- package/src/locales/default/setting.ts +28 -0
- package/src/server/routers/lambda/exporter.ts +25 -0
- package/src/server/routers/lambda/importer.ts +19 -3
- package/src/server/routers/lambda/index.ts +2 -0
- package/src/services/config.ts +80 -135
- package/src/services/export/_deprecated.ts +155 -0
- package/src/services/export/client.ts +15 -0
- package/src/services/export/index.ts +6 -0
- package/src/services/export/server.ts +9 -0
- package/src/services/export/type.ts +5 -0
- package/src/services/import/_deprecated.ts +42 -1
- package/src/services/import/client.test.ts +1 -1
- package/src/services/import/client.ts +30 -1
- package/src/services/import/server.ts +70 -2
- package/src/services/import/type.ts +10 -0
- package/src/store/global/initialState.ts +1 -0
- package/src/types/export.ts +11 -0
- package/src/types/exportConfig.ts +2 -0
- package/src/types/importer.ts +15 -0
- package/src/utils/client/exportFile.ts +21 -0
- package/vitest.config.ts +1 -1
- package/src/utils/config.ts +0 -109
- /package/src/database/repositories/dataImporter/{__tests__ → deprecated/__tests__}/fixtures/messages.json +0 -0
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Theme Settings"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Export",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Export Assistant Settings",
|
355
|
+
"agentWithMessage": "Export Assistant and Messages",
|
356
|
+
"all": "Export Global Settings and All Assistant Data",
|
357
|
+
"allAgent": "Export All Assistant Settings",
|
358
|
+
"allAgentWithMessage": "Export All Assistants and Messages",
|
359
|
+
"globalSetting": "Export Global Settings"
|
360
|
+
},
|
361
|
+
"title": "Export Data"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Import",
|
365
|
+
"title": "Import Data"
|
366
|
+
},
|
367
|
+
"title": "Advanced Operations"
|
368
|
+
},
|
369
|
+
"desc": "Current storage usage in the browser",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Vector Storage"
|
372
|
+
},
|
373
|
+
"title": "Data Storage",
|
374
|
+
"used": "Storage Usage"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Submit Assistant",
|
351
378
|
"identifier": "Assistant Identifier",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Hotkeys",
|
440
467
|
"llm": "Language Model",
|
441
468
|
"provider": "AI Service Provider",
|
469
|
+
"storage": "Data Storage",
|
442
470
|
"sync": "Cloud Sync",
|
443
471
|
"system-agent": "System Assistant",
|
444
472
|
"tts": "Text-to-Speech"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "Pantalla completa",
|
185
185
|
"historyRange": "Rango de historial",
|
186
|
-
"
|
186
|
+
"importData": "Importar datos",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "Lo sentimos mucho, se produjo un error durante el proceso de importación de datos. Inténtalo de nuevo o <1>envía un informe</1>, y te ayudaremos a solucionar el problema lo antes posible.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Asistentes",
|
206
206
|
"skips": "Saltos de duplicados",
|
207
207
|
"topics": "Temas",
|
208
|
-
"type": "Tipo de datos"
|
208
|
+
"type": "Tipo de datos",
|
209
|
+
"update": "Registro actualizado"
|
209
210
|
},
|
210
211
|
"title": "Importar datos",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Velocidad de carga"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Confirmar importación",
|
220
|
+
"tables": {
|
221
|
+
"count": "Número de registros",
|
222
|
+
"name": "Nombre de la tabla"
|
223
|
+
},
|
224
|
+
"title": "Vista previa de la importación de datos",
|
225
|
+
"totalRecords": "Se importarán un total de {{count}} registros",
|
226
|
+
"totalTables": "{{count}} tablas"
|
227
|
+
},
|
217
228
|
"information": "Comunidad e Información",
|
218
229
|
"installPWA": "Instalar la aplicación del navegador",
|
219
230
|
"lang": {
|
package/locales/es-ES/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Detalles del error",
|
17
17
|
"title": "Solicitud fallida"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Razón del error: {{reason}}",
|
22
|
+
"title": "Importación fallida"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Este archivo fue exportado desde una versión más alta, por favor intente actualizar a la última versión y luego vuelva a importar",
|
26
|
+
"title": "La aplicación actual no admite la importación de este archivo"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Serás redirigido automáticamente a la página de inicio de sesión",
|
21
31
|
"title": "Por favor, inicie sesión para utilizar esta función"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 es un modelo de lenguaje de expertos mixtos (MoE) con 671 mil millones de parámetros, que utiliza atención potencial de múltiples cabezas (MLA) y la arquitectura DeepSeekMoE, combinando estrategias de balanceo de carga sin pérdidas auxiliares para optimizar la eficiencia de inferencia y entrenamiento. Preentrenado en 14.8 billones de tokens de alta calidad, y ajustado mediante supervisión y aprendizaje por refuerzo, DeepSeek-V3 supera a otros modelos de código abierto y se acerca a los modelos cerrados líderes."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 es un modelo de lenguaje de expertos mixtos (MoE) con 671 mil millones de parámetros, que utiliza atención latente de múltiples cabezas (MLA) y la arquitectura DeepSeekMoE, combinando una estrategia de balanceo de carga sin pérdidas auxiliares para optimizar la eficiencia de inferencia y entrenamiento. Preentrenado en 14.8 billones de tokens de alta calidad y ajustado mediante supervisión y aprendizaje por refuerzo, DeepSeek-V3 supera en rendimiento a otros modelos de código abierto, acercándose a los modelos cerrados líderes."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 es un modelo MoE desarrollado por Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., que ha destacado en múltiples evaluaciones, ocupando el primer lugar en la lista de modelos de código abierto. En comparación con el modelo V2.5, la velocidad de generación se ha incrementado tres veces, brindando a los usuarios una experiencia de uso más rápida y fluida."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 es un modelo MoE de 671B parámetros, destacándose en habilidades de programación y técnicas, comprensión del contexto y procesamiento de textos largos."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google, diseñado para la escalabilidad en una amplia gama de tareas."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash es el último modelo de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido, admite entradas de texto, imágenes y videos, y es adecuado para la escalabilidad eficiente en diversas tareas."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente, que admite la escalabilidad para aplicaciones amplias."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Variante del modelo Gemini 2.0 Flash, optimizada para objetivos como la rentabilidad y la baja latencia."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Un modelo Gemini 2.0 Flash optimizado para objetivos de costo-efectividad y baja latencia."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp es el último modelo experimental de IA multimodal de Google, con características de próxima generación, velocidad excepcional, llamadas nativas a herramientas y generación multimodal."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "El modelo Qwen-Math tiene una poderosa capacidad para resolver problemas matemáticos."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "La serie de modelos Qwen-Omni admite la entrada de datos de múltiples modalidades, incluyendo video, audio, imágenes y texto, y produce audio y texto como salida."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "La serie de modelos Qwen2.5-VL ha mejorado el nivel de inteligencia, utilidad y aplicabilidad del modelo, optimizando su rendimiento en escenarios como conversaciones naturales, creación de contenido, servicios de conocimiento especializado y desarrollo de código. La versión 32B utiliza técnicas de aprendizaje por refuerzo para optimizar el modelo, ofreciendo en comparación con otros modelos de la serie Qwen2.5 VL, un estilo de salida más acorde con las preferencias humanas, capacidad de razonamiento para problemas matemáticos complejos, así como comprensión y razonamiento detallado de imágenes."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Configuración de tema"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Exportar",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Exportar configuración del asistente",
|
355
|
+
"agentWithMessage": "Exportar asistente y mensajes",
|
356
|
+
"all": "Exportar configuración global y todos los datos del asistente",
|
357
|
+
"allAgent": "Exportar todas las configuraciones del asistente",
|
358
|
+
"allAgentWithMessage": "Exportar todos los asistentes y mensajes",
|
359
|
+
"globalSetting": "Exportar configuración global"
|
360
|
+
},
|
361
|
+
"title": "Exportar datos"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importar",
|
365
|
+
"title": "Importar datos"
|
366
|
+
},
|
367
|
+
"title": "Operaciones avanzadas"
|
368
|
+
},
|
369
|
+
"desc": "Uso de almacenamiento en el navegador actual",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Almacenamiento de vectores"
|
372
|
+
},
|
373
|
+
"title": "Almacenamiento de datos",
|
374
|
+
"used": "Uso de almacenamiento"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Enviar asistente",
|
351
378
|
"identifier": "Identificador del asistente",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Atajos de teclado",
|
440
467
|
"llm": "Modelo de lenguaje",
|
441
468
|
"provider": "Proveedor de servicios de IA",
|
469
|
+
"storage": "Almacenamiento de datos",
|
442
470
|
"sync": "Sincronización en la nube",
|
443
471
|
"system-agent": "Asistente del sistema",
|
444
472
|
"tts": "Servicio de voz"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "حالت تمام صفحه",
|
185
185
|
"historyRange": "محدوده تاریخی",
|
186
|
-
"
|
186
|
+
"importData": "وارد کردن دادهها",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "متأسفانه در فرآیند وارد کردن دادهها خطایی رخ داده است. لطفاً دوباره تلاش کنید یا <1>مشکل را گزارش دهید</1> تا ما در اسرع وقت به شما کمک کنیم.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "دستیار",
|
206
206
|
"skips": "تکراریها رد شدند",
|
207
207
|
"topics": "موضوعات",
|
208
|
-
"type": "نوع داده"
|
208
|
+
"type": "نوع داده",
|
209
|
+
"update": "بهروزرسانی رکورد"
|
209
210
|
},
|
210
211
|
"title": "وارد کردن دادهها",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "سرعت آپلود"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "تأیید واردات",
|
220
|
+
"tables": {
|
221
|
+
"count": "تعداد رکوردها",
|
222
|
+
"name": "نام جدول"
|
223
|
+
},
|
224
|
+
"title": "پیشنمایش دادههای وارداتی",
|
225
|
+
"totalRecords": "در مجموع {{count}} رکورد وارد خواهد شد",
|
226
|
+
"totalTables": "{{count}} جدول"
|
227
|
+
},
|
217
228
|
"information": "جامعه و اطلاعات",
|
218
229
|
"installPWA": "نصب برنامه وب پیشرو (PWA)",
|
219
230
|
"lang": {
|
package/locales/fa-IR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "جزئیات خطا",
|
17
17
|
"title": "درخواست ناموفق بود"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "علت خطا: {{reason}}",
|
22
|
+
"title": "واردات ناموفق"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "این فایل توسط نسخه بالاتری صادر شده است، لطفاً سعی کنید به آخرین نسخه ارتقا دهید و دوباره وارد کنید",
|
26
|
+
"title": "برنامه فعلی از واردات این فایل پشتیبانی نمیکند"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "به زودی به صفحه ورود منتقل خواهید شد",
|
21
31
|
"title": "لطفاً پس از ورود از این قابلیت استفاده کنید"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 یک مدل زبان با 671 میلیارد پارامتر است که از معماری متخصصان ترکیبی (MoE) و توجه چندسر (MLA) استفاده میکند و با استراتژی تعادل بار بدون ضرر کمکی بهینهسازی کارایی استنتاج و آموزش را انجام میدهد. این مدل با پیشآموزش بر روی 14.8 تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 یک مدل زبانی با ۶۷۱۰ میلیارد پارامتر و از نوع متخصص مختلط (MoE) است که از توجه چندسر (MLA) و معماری DeepSeekMoE استفاده میکند و با ترکیب استراتژی تعادل بار بدون ضرر کمکی، کارایی استنتاج و آموزش را بهینه میسازد. با پیشآموزش بر روی ۱۴.۸ تریلیون توکن با کیفیت بالا و انجام تنظیم دقیق نظارتی و یادگیری تقویتی، DeepSeek-V3 در عملکرد از سایر مدلهای متنباز پیشی میگیرد و به مدلهای بسته پیشرو نزدیک میشود."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 مدل MoE توسعه یافته توسط شرکت تحقیقاتی فناوری هوش مصنوعی DeepSeek در هانگژو است که در چندین ارزیابی عملکرد برجستهای دارد و در لیستهای اصلی در صدر مدلهای متنباز قرار دارد. V3 نسبت به مدل V2.5 سرعت تولید را 3 برابر افزایش داده و تجربه کاربری سریعتر و روانتری را برای کاربران فراهم میکند."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در زمینههای برنامهنویسی و تواناییهای فنی، درک زمینه و پردازش متنهای طولانی برتری دارد."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "مدل متنباز جدیدی که تواناییهای عمومی و کدنویسی را ترکیب میکند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و قدرت پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبهها نیز بهبودهای قابل توجهی داشته است."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای Google است که برای گسترش وظایف گسترده طراحی شده است."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash جدیدترین مدل هوش مصنوعی چندوجهی گوگل است که دارای قابلیت پردازش سریع بوده و از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و برای گسترش کارآمد در انواع وظایف مناسب است."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "جمینی 1.5 فلش 001 یک مدل چندوجهی کارآمد است که از گسترش کاربردهای گسترده پشتیبانی میکند."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "مدل متغیر Gemini 2.0 Flash برای بهینهسازی هزینه و تأخیر کم طراحی شده است."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "مدل Gemini 2.0 Flash که برای بهینهسازی هزینه و تأخیر کم طراحی شده است."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp جدیدترین مدل AI چندرسانهای آزمایشی گوگل است که دارای ویژگیهای نسل بعدی، سرعت فوقالعاده، فراخوانی ابزار بومی و تولید چندرسانهای است."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "مدل Qwen-Math دارای توانایی قوی در حل مسائل ریاضی است."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "مدلهای سری Qwen-Omni از ورودیهای چندگانه شامل ویدیو، صدا، تصویر و متن پشتیبانی میکنند و خروجیهایی به صورت صدا و متن ارائه میدهند."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "سری مدلهای Qwen2.5-VL سطح هوش، کاربردی بودن و مناسب بودن مدل را افزایش داده است تا عملکرد بهتری در مکالمات طبیعی، خلق محتوا، ارائه خدمات دانش تخصصی و توسعه کد ارائه دهد. نسخه 32B با استفاده از تکنیکهای یادگیری تقویتی مدل را بهینه کرده است و نسبت به سایر مدلهای سری Qwen2.5 VL، سبک خروجی مطابق با ترجیحات انسانی، توانایی استدلال در مسائل ریاضی پیچیده و درک و استدلال دقیق تصاویر را فراهم میکند."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "تنظیمات تم"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "صادر کردن",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "صادر کردن تنظیمات دستیار",
|
355
|
+
"agentWithMessage": "صادر کردن دستیار و پیام",
|
356
|
+
"all": "صادر کردن تنظیمات جهانی و تمام دادههای دستیار",
|
357
|
+
"allAgent": "صادر کردن تمام تنظیمات دستیار",
|
358
|
+
"allAgentWithMessage": "صادر کردن تمام دستیارها و پیامها",
|
359
|
+
"globalSetting": "صادر کردن تنظیمات جهانی"
|
360
|
+
},
|
361
|
+
"title": "صادر کردن دادهها"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "وارد کردن",
|
365
|
+
"title": "وارد کردن دادهها"
|
366
|
+
},
|
367
|
+
"title": "عملیات پیشرفته"
|
368
|
+
},
|
369
|
+
"desc": "مقدار ذخیرهسازی در مرورگر فعلی",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "ذخیرهسازی برداری"
|
372
|
+
},
|
373
|
+
"title": "ذخیرهسازی دادهها",
|
374
|
+
"used": "مقدار ذخیرهسازی"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "ارسال دستیار",
|
351
378
|
"identifier": "شناسه دستیار",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "کلیدهای میانبر",
|
440
467
|
"llm": "مدل زبان",
|
441
468
|
"provider": "ارائه دهنده خدمات هوش مصنوعی",
|
469
|
+
"storage": "ذخیرهسازی دادهها",
|
442
470
|
"sync": "همگامسازی ابری",
|
443
471
|
"system-agent": "دستیار سیستم",
|
444
472
|
"tts": "خدمات صوتی"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "Mode plein écran",
|
185
185
|
"historyRange": "Plage d'historique",
|
186
|
-
"
|
186
|
+
"importData": "Importer des données",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "Désolé, une erreur s'est produite lors de l'importation des données. Veuillez réessayer l'importation ou <1> soumettre un problème </1>, nous vous aiderons à résoudre le problème dès que possible.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Agents",
|
206
206
|
"skips": "Éléments ignorés en double",
|
207
207
|
"topics": "Sujets",
|
208
|
-
"type": "Type de données"
|
208
|
+
"type": "Type de données",
|
209
|
+
"update": "Mise à jour des enregistrements"
|
209
210
|
},
|
210
211
|
"title": "Importer des données",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Vitesse de téléchargement"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Confirmer l'importation",
|
220
|
+
"tables": {
|
221
|
+
"count": "Nombre d'enregistrements",
|
222
|
+
"name": "Nom de la table"
|
223
|
+
},
|
224
|
+
"title": "Aperçu de l'importation des données",
|
225
|
+
"totalRecords": "Au total, {{count}} enregistrements seront importés",
|
226
|
+
"totalTables": "{{count}} tables"
|
227
|
+
},
|
217
228
|
"information": "Communauté et Informations",
|
218
229
|
"installPWA": "Installer l'application du navigateur",
|
219
230
|
"lang": {
|
package/locales/fr-FR/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Détails de l'erreur",
|
17
17
|
"title": "Échec de la requête"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Raison de l'erreur : {{reason}}",
|
22
|
+
"title": "Échec de l'importation"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Ce fichier a été exporté par une version supérieure, veuillez essayer de mettre à jour vers la dernière version avant de réimporter",
|
26
|
+
"title": "L'application actuelle ne prend pas en charge l'importation de ce fichier"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Vous allez être redirigé vers la page de connexion",
|
21
31
|
"title": "Veuillez vous connecter pour utiliser cette fonctionnalité"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 est un modèle de langage à experts mixtes (MoE) avec 671 milliards de paramètres, utilisant une attention potentielle multi-tête (MLA) et une architecture DeepSeekMoE, combinant une stratégie d'équilibrage de charge sans perte auxiliaire pour optimiser l'efficacité d'inférence et d'entraînement. Pré-entraîné sur 14,8 billions de tokens de haute qualité, et affiné par supervision et apprentissage par renforcement, DeepSeek-V3 surpasse d'autres modèles open source et se rapproche des modèles fermés de premier plan."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 est un modèle de langage hybride d'experts (MoE) avec 6710 milliards de paramètres, utilisant une attention latente multi-têtes (MLA) et l'architecture DeepSeekMoE, combinée à une stratégie d'équilibrage de charge sans perte auxiliaire, optimisant l'efficacité de l'inférence et de l'entraînement. Pré-entraîné sur 14,8 trillions de tokens de haute qualité, suivi d'un ajustement supervisé et d'un apprentissage par renforcement, DeepSeek-V3 surpasse les autres modèles open source en termes de performance, se rapprochant des modèles fermés de pointe."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview est un modèle de traitement du langage naturel innovant, capable de gérer efficacement des tâches complexes de génération de dialogues et de compréhension contextuelle."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 est un modèle MoE développé par la société Hangzhou DeepSeek AI Technology Research Co., Ltd., avec des performances exceptionnelles dans plusieurs évaluations, se classant au premier rang des modèles open source dans les classements principaux. Par rapport au modèle V2.5, la vitesse de génération a été multipliée par 3, offrant aux utilisateurs une expérience d'utilisation plus rapide et fluide."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 est un modèle MoE de 671 milliards de paramètres, se distinguant par ses capacités en programmation et en technique, ainsi que par sa compréhension du contexte et son traitement de longs textes."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodale de Google, doté d'une capacité de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, et adapté à une extension efficace pour diverses tâches."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Un modèle Gemini 2.0 Flash optimisé pour des objectifs de rentabilité et de faible latence."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Le modèle Qwen-Math possède de puissantes capacités de résolution de problèmes mathématiques."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "La série de modèles Qwen-Omni prend en charge l'entrée de données multimodales, y compris des vidéos, de l'audio, des images et du texte, et produit de l'audio et du texte en sortie."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "La série de modèles Qwen2.5-VL améliore l'intelligence, l'utilité et l'adaptabilité des modèles, offrant des performances supérieures dans des scénarios tels que les conversations naturelles, la création de contenu, les services d'expertise professionnelle et le développement de code. La version 32B utilise des techniques d'apprentissage par renforcement pour optimiser le modèle, fournissant par rapport aux autres modèles de la série Qwen2.5 VL un style de sortie plus conforme aux préférences humaines, une capacité de raisonnement sur des problèmes mathématiques complexes, ainsi qu'une compréhension fine et un raisonnement sur les images."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Paramètres du thème"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Exporter",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Exporter les paramètres de l'agent",
|
355
|
+
"agentWithMessage": "Exporter les paramètres de l'agent et les messages",
|
356
|
+
"all": "Exporter les paramètres globaux et toutes les données des agents",
|
357
|
+
"allAgent": "Exporter tous les paramètres des agents",
|
358
|
+
"allAgentWithMessage": "Exporter tous les agents et les messages",
|
359
|
+
"globalSetting": "Exporter les paramètres globaux"
|
360
|
+
},
|
361
|
+
"title": "Exporter les données"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importer",
|
365
|
+
"title": "Importer les données"
|
366
|
+
},
|
367
|
+
"title": "Opérations avancées"
|
368
|
+
},
|
369
|
+
"desc": "Utilisation du stockage dans le navigateur actuel",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Stockage des vecteurs"
|
372
|
+
},
|
373
|
+
"title": "Stockage des données",
|
374
|
+
"used": "Utilisation du stockage"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Soumettre l'agent",
|
351
378
|
"identifier": "Identifiant de l'agent",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Raccourcis clavier",
|
440
467
|
"llm": "Modèle de langue",
|
441
468
|
"provider": "Fournisseur de services d'IA",
|
469
|
+
"storage": "Stockage des données",
|
442
470
|
"sync": "Synchronisation cloud",
|
443
471
|
"system-agent": "Agent système",
|
444
472
|
"tts": "Service vocal"
|
@@ -183,7 +183,7 @@
|
|
183
183
|
},
|
184
184
|
"fullscreen": "Modalità a schermo intero",
|
185
185
|
"historyRange": "Intervallo cronologico",
|
186
|
-
"
|
186
|
+
"importData": "Importa dati",
|
187
187
|
"importModal": {
|
188
188
|
"error": {
|
189
189
|
"desc": "Ci dispiace molto, si è verificato un errore durante il processo di importazione dei dati. Si prega di provare a importare nuovamente, o <1>invia un problema</1>, saremo pronti ad aiutarti a risolvere il problema al più presto.",
|
@@ -205,7 +205,8 @@
|
|
205
205
|
"sessions": "Sessioni",
|
206
206
|
"skips": "Elementi saltati",
|
207
207
|
"topics": "Argomenti",
|
208
|
-
"type": "Tipo di dati"
|
208
|
+
"type": "Tipo di dati",
|
209
|
+
"update": "Aggiornamento registrazione"
|
209
210
|
},
|
210
211
|
"title": "Importa dati",
|
211
212
|
"uploading": {
|
@@ -214,6 +215,16 @@
|
|
214
215
|
"speed": "Velocità di caricamento"
|
215
216
|
}
|
216
217
|
},
|
218
|
+
"importPreview": {
|
219
|
+
"confirmImport": "Conferma importazione",
|
220
|
+
"tables": {
|
221
|
+
"count": "Numero di registrazioni",
|
222
|
+
"name": "Nome della tabella"
|
223
|
+
},
|
224
|
+
"title": "Anteprima dei dati da importare",
|
225
|
+
"totalRecords": "Totale di {{count}} registrazioni da importare",
|
226
|
+
"totalTables": "{{count}} tabelle"
|
227
|
+
},
|
217
228
|
"information": "Comunità e informazioni",
|
218
229
|
"installPWA": "Installa l'applicazione del browser",
|
219
230
|
"lang": {
|
package/locales/it-IT/error.json
CHANGED
@@ -16,6 +16,16 @@
|
|
16
16
|
"detail": "Dettagli errore",
|
17
17
|
"title": "Richiesta fallita"
|
18
18
|
},
|
19
|
+
"import": {
|
20
|
+
"importConfigFile": {
|
21
|
+
"description": "Motivo dell'errore: {{reason}}",
|
22
|
+
"title": "Importazione fallita"
|
23
|
+
},
|
24
|
+
"incompatible": {
|
25
|
+
"description": "Questo file è stato esportato da una versione più recente, si prega di provare ad aggiornare all'ultima versione e riprovare l'importazione",
|
26
|
+
"title": "L'app attuale non supporta l'importazione di questo file"
|
27
|
+
}
|
28
|
+
},
|
19
29
|
"loginRequired": {
|
20
30
|
"desc": "Verrai reindirizzato automaticamente alla pagina di accesso",
|
21
31
|
"title": "Accedi per utilizzare questa funzione"
|
@@ -221,6 +221,9 @@
|
|
221
221
|
"Pro/deepseek-ai/DeepSeek-V3": {
|
222
222
|
"description": "DeepSeek-V3 è un modello di linguaggio con 6710 miliardi di parametri, basato su un'architettura di esperti misti (MoE) che utilizza attenzione multilivello (MLA) e la strategia di bilanciamento del carico senza perdite ausiliarie, ottimizzando l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato tramite supervisione e apprendimento per rinforzo, DeepSeek-V3 supera altri modelli open source, avvicinandosi ai modelli chiusi di punta."
|
223
223
|
},
|
224
|
+
"Pro/deepseek-ai/DeepSeek-V3-1226": {
|
225
|
+
"description": "DeepSeek-V3 è un modello linguistico ibrido esperto (MoE) con 6710 miliardi di parametri, che utilizza l'attenzione multilivello (MLA) e l'architettura DeepSeekMoE, combinando strategie di bilanciamento del carico senza perdite ausiliarie per ottimizzare l'efficienza di inferenza e addestramento. Pre-addestrato su 14,8 trilioni di token di alta qualità e successivamente affinato supervisionato e tramite apprendimento rinforzato, DeepSeek-V3 supera le prestazioni di altri modelli open source, avvicinandosi ai modelli closed source leader."
|
226
|
+
},
|
224
227
|
"QwQ-32B-Preview": {
|
225
228
|
"description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
|
226
229
|
},
|
@@ -743,6 +746,9 @@
|
|
743
746
|
"deepseek-v3": {
|
744
747
|
"description": "DeepSeek-V3 è un modello MoE sviluppato internamente da Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., con risultati eccezionali in molteplici valutazioni, posizionandosi al primo posto tra i modelli open source nelle classifiche principali. Rispetto al modello V2.5, la velocità di generazione è aumentata di 3 volte, offrendo un'esperienza utente più rapida e fluida."
|
745
748
|
},
|
749
|
+
"deepseek-v3-0324": {
|
750
|
+
"description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con vantaggi notevoli nelle capacità di programmazione e tecniche, comprensione del contesto e gestione di testi lunghi."
|
751
|
+
},
|
746
752
|
"deepseek/deepseek-chat": {
|
747
753
|
"description": "Un nuovo modello open source che integra capacità generali e di codice, mantenendo non solo le capacità di dialogo generali del modello Chat originale e la potente capacità di elaborazione del codice del modello Coder, ma allineandosi anche meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come compiti di scrittura e seguire istruzioni."
|
748
754
|
},
|
@@ -845,9 +851,6 @@
|
|
845
851
|
"gemini-1.0-pro-latest": {
|
846
852
|
"description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google, progettato per l'espansione su una vasta gamma di compiti."
|
847
853
|
},
|
848
|
-
"gemini-1.5-flash": {
|
849
|
-
"description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'efficiente scalabilità in vari compiti."
|
850
|
-
},
|
851
854
|
"gemini-1.5-flash-001": {
|
852
855
|
"description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente, supporta l'espansione per applicazioni ampie."
|
853
856
|
},
|
@@ -902,9 +905,6 @@
|
|
902
905
|
"gemini-2.0-flash-lite-001": {
|
903
906
|
"description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
|
904
907
|
},
|
905
|
-
"gemini-2.0-flash-lite-preview-02-05": {
|
906
|
-
"description": "Un modello Gemini 2.0 Flash ottimizzato per obiettivi di costo-efficacia e bassa latenza."
|
907
|
-
},
|
908
908
|
"gemini-2.0-flash-thinking-exp-01-21": {
|
909
909
|
"description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
|
910
910
|
},
|
@@ -1718,6 +1718,9 @@
|
|
1718
1718
|
"qwen2.5-math-7b-instruct": {
|
1719
1719
|
"description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
|
1720
1720
|
},
|
1721
|
+
"qwen2.5-omni-7b": {
|
1722
|
+
"description": "La serie di modelli Qwen-Omni supporta l'input di dati multimodali, inclusi video, audio, immagini e testo, e produce output audio e testo."
|
1723
|
+
},
|
1721
1724
|
"qwen2.5-vl-32b-instruct": {
|
1722
1725
|
"description": "La serie di modelli Qwen2.5-VL ha migliorato il livello di intelligenza, praticità e applicabilità del modello, rendendolo più performante in scenari come conversazioni naturali, creazione di contenuti, servizi di conoscenza specialistica e sviluppo di codice. La versione 32B utilizza tecniche di apprendimento rinforzato per ottimizzare il modello, offrendo uno stile di output più in linea con le preferenze umane, capacità di ragionamento per problemi matematici complessi e comprensione e ragionamento dettagliati di immagini rispetto ad altri modelli della serie Qwen2.5 VL."
|
1723
1726
|
},
|
@@ -346,6 +346,33 @@
|
|
346
346
|
},
|
347
347
|
"title": "Impostazioni del tema"
|
348
348
|
},
|
349
|
+
"storage": {
|
350
|
+
"actions": {
|
351
|
+
"export": {
|
352
|
+
"button": "Esporta",
|
353
|
+
"exportType": {
|
354
|
+
"agent": "Esporta impostazioni assistente",
|
355
|
+
"agentWithMessage": "Esporta assistente e messaggi",
|
356
|
+
"all": "Esporta impostazioni globali e tutti i dati degli assistenti",
|
357
|
+
"allAgent": "Esporta tutte le impostazioni degli assistenti",
|
358
|
+
"allAgentWithMessage": "Esporta tutti gli assistenti e messaggi",
|
359
|
+
"globalSetting": "Esporta impostazioni globali"
|
360
|
+
},
|
361
|
+
"title": "Esporta dati"
|
362
|
+
},
|
363
|
+
"import": {
|
364
|
+
"button": "Importa",
|
365
|
+
"title": "Importa dati"
|
366
|
+
},
|
367
|
+
"title": "Operazioni avanzate"
|
368
|
+
},
|
369
|
+
"desc": "Utilizzo dello storage nel browser attuale",
|
370
|
+
"embeddings": {
|
371
|
+
"used": "Storage vettoriale"
|
372
|
+
},
|
373
|
+
"title": "Storage dati",
|
374
|
+
"used": "Utilizzo dello storage"
|
375
|
+
},
|
349
376
|
"submitAgentModal": {
|
350
377
|
"button": "Invia assistente",
|
351
378
|
"identifier": "Identificatore assistente",
|
@@ -439,6 +466,7 @@
|
|
439
466
|
"hotkey": "Scorciatoie",
|
440
467
|
"llm": "Modello linguistico",
|
441
468
|
"provider": "Fornitore di servizi AI",
|
469
|
+
"storage": "Storage dati",
|
442
470
|
"sync": "云端同步",
|
443
471
|
"system-agent": "Assistente di sistema",
|
444
472
|
"tts": "Servizio vocale"
|