@lobehub/chat 1.74.1 → 1.74.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/README.md +2 -2
- package/README.zh-CN.md +2 -2
- package/changelog/v1.json +18 -0
- package/docs/developer/database-schema.dbml +54 -2
- package/docs/self-hosting/environment-variables/model-provider.mdx +9 -7
- package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +9 -7
- package/locales/ar/common.json +51 -0
- package/locales/ar/models.json +69 -3
- package/locales/ar/providers.json +6 -0
- package/locales/bg-BG/common.json +51 -0
- package/locales/bg-BG/models.json +69 -3
- package/locales/bg-BG/providers.json +6 -0
- package/locales/de-DE/common.json +51 -0
- package/locales/de-DE/models.json +69 -3
- package/locales/de-DE/providers.json +6 -0
- package/locales/en-US/common.json +51 -0
- package/locales/en-US/models.json +69 -3
- package/locales/en-US/providers.json +6 -3
- package/locales/es-ES/common.json +51 -0
- package/locales/es-ES/models.json +69 -3
- package/locales/es-ES/providers.json +6 -0
- package/locales/fa-IR/common.json +51 -0
- package/locales/fa-IR/models.json +69 -3
- package/locales/fa-IR/providers.json +6 -0
- package/locales/fr-FR/common.json +51 -0
- package/locales/fr-FR/models.json +69 -3
- package/locales/fr-FR/providers.json +6 -0
- package/locales/it-IT/common.json +51 -0
- package/locales/it-IT/models.json +69 -3
- package/locales/it-IT/providers.json +6 -0
- package/locales/ja-JP/common.json +51 -0
- package/locales/ja-JP/models.json +78 -4
- package/locales/ja-JP/providers.json +6 -0
- package/locales/ko-KR/common.json +51 -0
- package/locales/ko-KR/models.json +69 -3
- package/locales/ko-KR/providers.json +6 -0
- package/locales/nl-NL/common.json +51 -0
- package/locales/nl-NL/models.json +69 -3
- package/locales/nl-NL/providers.json +6 -0
- package/locales/pl-PL/common.json +51 -0
- package/locales/pl-PL/models.json +69 -3
- package/locales/pl-PL/providers.json +6 -0
- package/locales/pt-BR/common.json +51 -0
- package/locales/pt-BR/models.json +69 -3
- package/locales/pt-BR/providers.json +6 -0
- package/locales/ru-RU/common.json +51 -0
- package/locales/ru-RU/models.json +69 -3
- package/locales/ru-RU/providers.json +6 -0
- package/locales/tr-TR/common.json +51 -0
- package/locales/tr-TR/models.json +69 -3
- package/locales/tr-TR/providers.json +6 -0
- package/locales/vi-VN/common.json +51 -0
- package/locales/vi-VN/models.json +69 -3
- package/locales/vi-VN/providers.json +6 -0
- package/locales/zh-CN/common.json +53 -2
- package/locales/zh-CN/models.json +79 -13
- package/locales/zh-CN/providers.json +6 -4
- package/locales/zh-TW/common.json +51 -0
- package/locales/zh-TW/models.json +81 -4
- package/locales/zh-TW/providers.json +6 -0
- package/package.json +1 -1
- package/packages/web-crawler/src/utils/__tests__/withTimeout.test.ts +0 -1
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +9 -1
- package/src/config/aiModels/qwen.ts +4 -4
- package/src/config/aiModels/volcengine.ts +2 -2
- package/src/database/client/db.ts +102 -11
- package/src/database/client/migrations.json +38 -8
- package/src/database/migrations/0018_add_client_id_for_entities.sql +32 -0
- package/src/database/migrations/meta/0018_snapshot.json +4212 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/drizzleMigration.ts +23 -0
- package/src/database/schemas/agent.ts +48 -31
- package/src/database/schemas/file.ts +32 -16
- package/src/database/schemas/message.ts +91 -54
- package/src/database/schemas/rag.ts +65 -32
- package/src/database/schemas/session.ts +6 -3
- package/src/database/schemas/topic.ts +31 -24
- package/src/features/InitClientDB/ErrorResult.tsx +53 -32
- package/src/features/InitClientDB/features/DatabaseRepair/Backup.tsx +77 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Diagnosis.tsx +98 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Repair.tsx +220 -0
- package/src/features/InitClientDB/features/DatabaseRepair/index.tsx +85 -0
- package/src/features/ModelSwitchPanel/index.tsx +13 -7
- package/src/locales/default/common.ts +53 -1
- package/src/store/global/actions/clientDb.ts +19 -3
- package/src/store/global/initialState.ts +6 -1
- package/src/store/global/selectors/clientDB.ts +43 -0
- package/src/store/global/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/general.test.ts +90 -0
- package/src/types/clientDB.ts +13 -0
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Lo sentimos, ha ocurrido una excepción en el proceso de inicialización de la base de datos Pglite. Por favor, haga clic en el botón para intentar de nuevo. Si después de varios intentos sigue ocurriendo el mismo error, por favor <1>envíe un problema</1>, y lo resolveremos lo antes posible.",
|
43
43
|
"detail": "Razón del error: [{{type}}] {{message}}. Detalles a continuación:",
|
44
|
+
"detailTitle": "Razón del error",
|
45
|
+
"report": "Informar problema",
|
44
46
|
"retry": "Reintentar",
|
47
|
+
"selfSolve": "Solución autónoma",
|
45
48
|
"title": "Falló la inicialización de la base de datos"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Usar ahora",
|
81
84
|
"desc": "Listo para usar",
|
82
85
|
"title": "La base de datos PGlite está lista"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Copia de seguridad",
|
90
|
+
"backupSuccess": "Copia de seguridad exitosa",
|
91
|
+
"desc": "Exportar datos clave de la base de datos actual",
|
92
|
+
"export": "Exportar todos los datos",
|
93
|
+
"exportDesc": "Los datos exportados se guardarán en formato JSON, que se puede utilizar para recuperación o análisis posterior.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Advertencia",
|
96
|
+
"alertDesc": "Las siguientes operaciones pueden causar pérdida de datos. Asegúrese de haber respaldado datos importantes antes de continuar.",
|
97
|
+
"button": "Restablecer completamente la base de datos (eliminar todos los datos)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Esta operación eliminará todos los datos y no se puede deshacer, ¿confirma que desea continuar?",
|
100
|
+
"title": "Confirmar restablecimiento de la base de datos"
|
101
|
+
},
|
102
|
+
"desc": "Restablecer la base de datos en caso de migración no recuperable",
|
103
|
+
"title": "Restablecimiento de la base de datos"
|
104
|
+
},
|
105
|
+
"restore": "Restaurar",
|
106
|
+
"restoreSuccess": "Restauración exitosa",
|
107
|
+
"title": "Copia de seguridad de datos"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Fecha de creación",
|
111
|
+
"migratedAt": "Fecha de finalización de la migración",
|
112
|
+
"sql": "SQL de migración",
|
113
|
+
"title": "Estado de la migración"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Gestionar manualmente el estado de la migración",
|
117
|
+
"runSQL": "Ejecutar personalizado",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Limpiar",
|
120
|
+
"desc": "Ejecutar sentencias SQL personalizadas para reparar problemas de la base de datos",
|
121
|
+
"markFinished": "Marcar como completado",
|
122
|
+
"placeholder": "Introducir sentencia SQL...",
|
123
|
+
"result": "Resultado de la ejecución",
|
124
|
+
"run": "Ejecutar",
|
125
|
+
"title": "Ejecutor de SQL"
|
126
|
+
},
|
127
|
+
"title": "Control de migración"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Copia de seguridad y restauración",
|
131
|
+
"diagnosis": "Diagnóstico",
|
132
|
+
"repair": "Reparar"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Cerrar",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B es un modelo de lenguaje de gran escala de código abierto y comercializable desarrollado por Baichuan Intelligence, que cuenta con 13 mil millones de parámetros y ha logrado los mejores resultados en benchmarks autorizados en chino e inglés."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse es un modelo multilingüe de alto rendimiento de 32B, diseñado para desafiar el rendimiento de los modelos monolingües a través de innovaciones en ajuste por instrucciones, arbitraje de datos, entrenamiento de preferencias y fusión de modelos. Soporta 23 idiomas."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse es un modelo multilingüe de alto rendimiento de 8B, diseñado para desafiar el rendimiento de los modelos monolingües a través de innovaciones en ajuste por instrucciones, arbitraje de datos, entrenamiento de preferencias y fusión de modelos. Soporta 23 idiomas."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision es un modelo multimodal de última generación, que destaca en múltiples benchmarks clave de capacidades lingüísticas, textuales y visuales. Soporta 23 idiomas. Esta versión de 32B se centra en el rendimiento multilingüe de vanguardia."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision es un modelo multimodal de última generación, que destaca en múltiples benchmarks clave de capacidades lingüísticas, textuales y visuales. Esta versión de 8B se centra en baja latencia y rendimiento óptimo."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 está diseñado para juegos de rol y acompañamiento emocional, soportando memoria de múltiples rondas y diálogos personalizados, con aplicaciones amplias."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Un modelo de conversación que sigue instrucciones, ofreciendo alta calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que nuestros modelos de generación básicos."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A es nuestro modelo más potente hasta la fecha, destacando en el uso de herramientas, agentes, generación aumentada por recuperación (RAG) y aplicaciones multilingües. Command A tiene una longitud de contexto de 256K, puede ejecutarse con solo dos GPU y ha mejorado su rendimiento en un 150% en comparación con Command R+ 08-2024."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Una versión más pequeña y rápida de Command, casi igual de potente, pero más rápida."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Para acortar el intervalo entre lanzamientos de versiones principales, hemos lanzado versiones nocturnas del modelo Command. Para la serie command-light, esta versión se llama command-light-nightly. Tenga en cuenta que command-light-nightly es la versión más reciente, experimental y (posiblemente) inestable. Las versiones nocturnas se actualizan regularmente sin previo aviso, por lo que no se recomienda su uso en entornos de producción."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Para acortar el intervalo entre lanzamientos de versiones principales, hemos lanzado versiones nocturnas del modelo Command. Para la serie Command, esta versión se llama command-cightly. Tenga en cuenta que command-nightly es la versión más reciente, experimental y (posiblemente) inestable. Las versiones nocturnas se actualizan regularmente sin previo aviso, por lo que no se recomienda su uso en entornos de producción."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R es un modelo de conversación que sigue instrucciones, ofreciendo una mayor calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que los modelos anteriores. Se puede utilizar en flujos de trabajo complejos, como generación de código, generación aumentada por recuperación (RAG), uso de herramientas y agentes."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 es una versión actualizada del modelo Command R, lanzada en agosto de 2024."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ es un modelo de lenguaje de gran tamaño de alto rendimiento, diseñado para escenarios empresariales reales y aplicaciones complejas."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ es un modelo de conversación que sigue instrucciones, ofreciendo una mayor calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que los modelos anteriores. Es ideal para flujos de trabajo complejos de RAG y uso de herramientas en múltiples pasos."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 es una versión pequeña y eficiente, lanzada en diciembre de 2024. Destaca en tareas que requieren razonamiento complejo y procesamiento en múltiples pasos, como RAG, uso de herramientas y agentes."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "El segundo modelo DALL·E, que admite generación de imágenes más realistas y precisas, con una resolución cuatro veces mayor que la de la primera generación."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B versión rápida, que soporta búsqueda en línea en tiempo real, ofreciendo una velocidad de respuesta más rápida mientras mantiene el rendimiento del modelo."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B versión estándar, que soporta búsqueda en línea en tiempo real, adecuada para tareas de conversación y procesamiento de textos que requieren información actualizada."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1, el modelo más grande e inteligente del conjunto DeepSeek, ha sido destilado en la arquitectura Llama 70B. Basado en pruebas de referencia y evaluaciones humanas, este modelo es más inteligente que el Llama 70B original, destacándose especialmente en tareas que requieren precisión matemática y factual."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "El modelo de la serie DeepSeek-R1-Distill se obtiene mediante la técnica de destilación de conocimiento, ajustando muestras generadas por DeepSeek-R1 a modelos de código abierto como Qwen y Llama."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "Lanzado por primera vez el 14 de febrero de 2025, destilado por el equipo de desarrollo del modelo Qianfan a partir del modelo base Llama3_70B (Construido con Meta Llama), con datos de destilación que también incluyen el corpus de Qianfan."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "Lanzado por primera vez el 14 de febrero de 2025, destilado por el equipo de desarrollo del modelo Qianfan a partir del modelo base Llama3_8B (Construido con Meta Llama), con datos de destilación que también incluyen el corpus de Qianfan."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "El modelo de la serie DeepSeek-R1-Distill se obtiene mediante la técnica de destilación de conocimiento, ajustando muestras generadas por DeepSeek-R1 a modelos de código abierto como Qwen y Llama."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "El modelo de la serie DeepSeek-R1-Distill se obtiene mediante la técnica de destilación de conocimiento, ajustando muestras generadas por DeepSeek-R1 a modelos de código abierto como Qwen y Llama."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 versión rápida completa, que soporta búsqueda en línea en tiempo real, combinando la potente capacidad de 671B de parámetros con una velocidad de respuesta más rápida."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 versión completa, con 671B de parámetros, que soporta búsqueda en línea en tiempo real, con una capacidad de comprensión y generación más potente."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "Modelo de inferencia lanzado por DeepSeek. Antes de proporcionar la respuesta final, el modelo genera primero una cadena de pensamiento para mejorar la precisión de la respuesta final."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "El modelo grande Wenxin 4.5 es un nuevo modelo base multimodal nativo desarrollado por Baidu, que logra una optimización colaborativa a través de modelado conjunto de múltiples modalidades, con excelentes capacidades de comprensión multimodal; presenta una capacidad lingüística más avanzada, con mejoras en comprensión, generación, lógica y memoria, así como una notable reducción de alucinaciones y mejoras en razonamiento lógico y capacidades de codificación."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Modelo de lenguaje grande de escenario vertical desarrollado internamente por Baidu, adecuado para aplicaciones como NPC de juegos, diálogos de servicio al cliente y juegos de rol de diálogos, con un estilo de personaje más distintivo y consistente, y una mayor capacidad de seguimiento de instrucciones y rendimiento de inferencia."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Versión fija de hunyuan-turbo del 20 de noviembre de 2024, una versión intermedia entre hunyuan-turbo y hunyuan-turbo-latest."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Optimización de esta versión: escalado de instrucciones de datos, mejora significativa de la capacidad de generalización del modelo; mejora significativa de las capacidades de matemáticas, código y razonamiento lógico; optimización de la comprensión de texto y de palabras relacionadas; optimización de la calidad de generación de contenido en la creación de texto."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "El nuevo modelo insignia de lenguaje visual de Hunyuan de nueva generación, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), mejorando de manera integral las capacidades de reconocimiento básico, creación de contenido, preguntas y respuestas de conocimiento, y análisis y razonamiento en comparación con la generación anterior de modelos."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 es una versión fija con un aumento en el número de tokens de entrenamiento; mejora en las capacidades de pensamiento en matemáticas/lógica/código; mejora en la experiencia general en chino e inglés, incluyendo creación de textos, comprensión de textos, preguntas y respuestas de conocimiento, y charlas informales."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Unificación del estilo de pasos de resolución matemática, mejorando las preguntas y respuestas matemáticas en múltiples rondas. Optimización del estilo de respuesta en la creación de textos, eliminando el sabor a IA y aumentando la elegancia."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS es la última versión del modelo insignia Hunyuan, con una mayor capacidad de pensamiento y una mejor experiencia."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Ejecuta modelos de aprendizaje automático impulsados por GPU sin servidor en la red global de Cloudflare."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere le ofrece los modelos multilingües más avanzados, potentes funciones de búsqueda y un espacio de trabajo de IA diseñado a medida para empresas modernas, todo integrado en una plataforma segura."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud permite a los desarrolladores utilizar fácilmente los mejores modelos de código abierto y disfrutar de la velocidad de inferencia más rápida."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API proporciona acceso a la serie de modelos DeepSeek que se pueden conectar a Internet según sea necesario, incluyendo versiones estándar y rápidas, con soporte para la selección de modelos de diferentes escalas de parámetros."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "SenseTime ofrece servicios de modelos grandes de pila completa, aprovechando el sólido soporte de la gran infraestructura de SenseTime."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "متأسفیم، در روند初始化 پایگاه داده Pglite خطایی رخ داده است. لطفاً دکمه را برای تلاش مجدد فشار دهید. اگر پس از چندین بار تلاش، هنوز خطا تکرار شد، لطفاً <1>مسئله را گزارش کنید</1>، ما در اولین فرصت به شما کمک خواهیم کرد.",
|
43
43
|
"detail": "علت خطا: [{{type}}] {{message}}، جزئیات به شرح زیر است:",
|
44
|
+
"detailTitle": "علت خطا",
|
45
|
+
"report": "گزارش مشکل",
|
44
46
|
"retry": "تکرار",
|
47
|
+
"selfSolve": "حل خودکار",
|
45
48
|
"title": "خطای در初始化 پایگاه داده"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "همین حالا استفاده کنید",
|
81
84
|
"desc": "همین حالا میخواهید استفاده کنید",
|
82
85
|
"title": "پایگاه داده PGlite آماده است"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "پشتیبانگیری",
|
90
|
+
"backupSuccess": "پشتیبانگیری موفق",
|
91
|
+
"desc": "صادرات دادههای کلیدی از پایگاه داده فعلی",
|
92
|
+
"export": "صادرات تمام دادهها",
|
93
|
+
"exportDesc": "دادههای صادراتی به فرمت JSON ذخیره خواهند شد و میتوانند برای بازیابی یا تحلیلهای بعدی استفاده شوند.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "هشدار",
|
96
|
+
"alertDesc": "عملیات زیر ممکن است منجر به از دست رفتن دادهها شود. لطفاً اطمینان حاصل کنید که دادههای مهم را پشتیبانگیری کردهاید و سپس ادامه دهید.",
|
97
|
+
"button": "بازنشانی کامل پایگاه داده (حذف تمام دادهها)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "این عملیات تمام دادهها را حذف کرده و غیرقابل بازگشت خواهد بود، آیا مطمئن هستید که میخواهید ادامه دهید؟",
|
100
|
+
"title": "تأیید بازنشانی پایگاه داده"
|
101
|
+
},
|
102
|
+
"desc": "در صورت عدم امکان بازیابی، پایگاه داده را بازنشانی کنید",
|
103
|
+
"title": "بازنشانی پایگاه داده"
|
104
|
+
},
|
105
|
+
"restore": "بازیابی",
|
106
|
+
"restoreSuccess": "بازیابی موفق",
|
107
|
+
"title": "پشتیبانگیری دادهها"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "زمان ایجاد",
|
111
|
+
"migratedAt": "زمان اتمام مهاجرت",
|
112
|
+
"sql": "SQL مهاجرت",
|
113
|
+
"title": "وضعیت مهاجرت"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "مدیریت دستی وضعیت مهاجرت",
|
117
|
+
"runSQL": "اجرا سفارشی",
|
118
|
+
"sql": {
|
119
|
+
"clear": "پاک کردن",
|
120
|
+
"desc": "اجرای دستورات SQL سفارشی برای رفع مشکلات پایگاه داده",
|
121
|
+
"markFinished": "علامتگذاری به عنوان تکمیل شده",
|
122
|
+
"placeholder": "دستور SQL را وارد کنید...",
|
123
|
+
"result": "نتیجه اجرا",
|
124
|
+
"run": "اجرا",
|
125
|
+
"title": "اجراکننده SQL"
|
126
|
+
},
|
127
|
+
"title": "کنترل مهاجرت"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "بازیابی پشتیبان",
|
131
|
+
"diagnosis": "تشخیص",
|
132
|
+
"repair": "رفع مشکل"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "بستن",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B یک مدل زبان بزرگ متن باز و قابل تجاری با 130 میلیارد پارامتر است که در آزمونهای معتبر چینی و انگلیسی بهترین عملکرد را در اندازه مشابه به دست آورده است."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse یک مدل چندزبانه با عملکرد بالا و 32B است که با هدف به چالش کشیدن عملکرد مدلهای تکزبانه از طریق بهینهسازی دستور، آربیتراژ دادهها، آموزش ترجیحات و نوآوری در ادغام مدلها طراحی شده است. این مدل از 23 زبان پشتیبانی میکند."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse یک مدل چندزبانه با عملکرد بالا و 8B است که با هدف به چالش کشیدن عملکرد مدلهای تکزبانه از طریق بهینهسازی دستور، آربیتراژ دادهها، آموزش ترجیحات و نوآوری در ادغام مدلها طراحی شده است. این مدل از 23 زبان پشتیبانی میکند."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision یک مدل چندرسانهای پیشرفته است که در چندین معیار کلیدی در زمینه زبان، متن و تصویر عملکرد فوقالعادهای دارد. این نسخه با 320 میلیارد پارامتر بر روی عملکرد چندزبانه پیشرفته تمرکز دارد."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision یک مدل چندرسانهای پیشرفته است که در چندین معیار کلیدی در زمینه زبان، متن و تصویر عملکرد فوقالعادهای دارد. این نسخه با 80 میلیارد پارامتر بر روی تأخیر کم و بهترین عملکرد تمرکز دارد."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 بهطور ویژه برای نقشآفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانیمدت و مکالمات شخصیسازیشده پشتیبانی میکند و کاربردهای گستردهای دارد."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ یک مدل پیشرفته بهینهسازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه میدهد و نسبت به مدلهای تولید پایه ما دارای طول زمینه بیشتری است."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A قویترین مدل ما تا به امروز است که در استفاده از ابزارها، نمایندگی، تولید تقویتشده با جستجو (RAG) و سناریوهای چندزبانه عملکرد فوقالعادهای دارد. Command A دارای طول زمینه 256K است و تنها به دو واحد GPU نیاز دارد و نسبت به Command R+ 08-2024، توان عملیاتی آن 150% افزایش یافته است."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "یک نسخه کوچکتر و سریعتر از Command که تقریباً به همان اندازه قوی است اما سریعتر عمل میکند."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "برای کاهش فاصله زمانی بین انتشار نسخههای اصلی، ما نسخههای شبانه مدل Command را معرفی کردهایم. برای سری command-light، این نسخه به نام command-light-nightly شناخته میشود. لطفاً توجه داشته باشید که command-light-nightly جدیدترین، آزمایشیترین و (احتمالاً) ناپایدارترین نسخه است. نسخههای شبانه بهطور منظم بهروزرسانی میشوند و بدون اطلاع قبلی منتشر میشوند، بنابراین استفاده از آن در محیطهای تولیدی توصیه نمیشود."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "برای کاهش فاصله زمانی بین انتشار نسخههای اصلی، ما نسخههای شبانه مدل Command را معرفی کردهایم. برای سری Command، این نسخه به نام command-cightly شناخته میشود. لطفاً توجه داشته باشید که command-nightly جدیدترین، آزمایشیترین و (احتمالاً) ناپایدارترین نسخه است. نسخههای شبانه بهطور منظم بهروزرسانی میشوند و بدون اطلاع قبلی منتشر میشوند، بنابراین استفاده از آن در محیطهای تولیدی توصیه نمیشود."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R یک LLM بهینهسازی شده برای مکالمات و وظایف با متن طولانی است که بهویژه برای تعاملات پویا و مدیریت دانش مناسب است."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R یک مدل گفتگوی پیروی از دستور است که در وظایف زبانی کیفیت بالاتری را ارائه میدهد و نسبت به مدلهای قبلی دارای طول زمینه بیشتری است. این مدل میتواند در جریانهای کاری پیچیده مانند تولید کد، تولید تقویتشده با جستجو (RAG)، استفاده از ابزارها و نمایندگی استفاده شود."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 نسخه بهروزرسانی شده مدل Command R است که در آگوست 2024 منتشر شد."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ یک مدل زبان بزرگ با عملکرد بالا است که برای سناریوهای واقعی کسبوکار و کاربردهای پیچیده طراحی شده است."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ یک مدل گفتگوی پیروی از دستور است که در وظایف زبانی کیفیت بالاتری را ارائه میدهد و نسبت به مدلهای قبلی دارای طول زمینه بیشتری است. این مدل برای جریانهای کاری پیچیده RAG و استفاده از ابزارهای چند مرحلهای مناسبترین است."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 یک نسخه کوچک و کارآمد بهروزرسانی شده است که در دسامبر 2024 منتشر شد. این مدل در RAG، استفاده از ابزارها، نمایندگی و سایر وظایفی که نیاز به استدلال پیچیده و پردازش چند مرحلهای دارند، عملکرد فوقالعادهای دارد."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "مدل نسل دوم DALL·E، پشتیبانی از تولید تصاویر واقعیتر و دقیقتر، با وضوح 4 برابر نسل اول."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرد و عملکرد استنتاج را بهینهتر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روشهای آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B نسخه سریع است که از جستجوی آنلاین زنده پشتیبانی میکند و در عین حفظ عملکرد مدل، سرعت پاسخدهی سریعتری را ارائه میدهد."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B نسخه استاندارد است که از جستجوی آنلاین زنده پشتیبانی میکند و برای گفتگوها و وظایف پردازش متنی که به اطلاعات جدید نیاز دارند، مناسب است."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به معماری Llama 70B تقطیر شده است. بر اساس آزمونهای معیار و ارزیابیهای انسانی، این مدل از Llama 70B اصلی هوشمندتر است، به ویژه در وظایفی که نیاز به دقت ریاضی و واقعی دارند."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "مدلهای سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونههای تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدلهای متنباز مانند Qwen و Llama به کار میبرند."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "این مدل در تاریخ 14 فوریه 2025 برای اولین بار منتشر شد و توسط تیم توسعه مدل بزرگ Qianfan با استفاده از Llama3_70B به عنوان مدل پایه (ساخته شده با متا لاما) تقطیر شده است و دادههای تقطیر شده همچنین شامل متون Qianfan است."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "این مدل در تاریخ 14 فوریه 2025 برای اولین بار منتشر شد و توسط تیم توسعه مدل بزرگ Qianfan با استفاده از Llama3_8B به عنوان مدل پایه (ساخته شده با متا لاما) تقطیر شده است و دادههای تقطیر شده همچنین شامل متون Qianfan است."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "مدلهای سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونههای تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدلهای متنباز مانند Qwen و Llama به کار میبرند."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "مدلهای سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونههای تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدلهای متنباز مانند Qwen و Llama به کار میبرند."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 نسخه سریع کامل است که از جستجوی آنلاین زنده پشتیبانی میکند و ترکیبی از تواناییهای قوی 671B پارامتر و سرعت پاسخدهی سریعتر است."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 نسخه کامل است که دارای 671B پارامتر است و از جستجوی آنلاین زنده پشتیبانی میکند و دارای تواناییهای درک و تولید قویتری است."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "مدل استدلالی ارائه شده توسط DeepSeek. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید میکند تا دقت پاسخ نهایی را افزایش دهد."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "مدل زبان بزرگ فوقالعاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گستردهای در زمینههای مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی میکند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "مدل بزرگ 4.5 Ernie یک مدل پایه چندرسانهای نسل جدید است که توسط بایدو بهطور مستقل توسعه یافته و از طریق مدلسازی مشترک چندین حالت به بهینهسازی همزمان دست مییابد و توانایی درک چندرسانهای فوقالعادهای دارد؛ دارای تواناییهای زبانی پیشرفتهتر، درک، تولید، منطق و حافظه بهطور کلی بهبود یافته و تواناییهای حذف توهم، استدلال منطقی و کد بهطور قابل توجهی افزایش یافته است."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقشآفرینی در مکالمات مناسب است، سبک شخصیت آن واضحتر و یکدستتر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "نسخه پیشنمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده میکند. در مقایسه با hunyuan-pro، کارایی استنتاج سریعتر و عملکرد بهتری دارد."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "نسخه ثابت hunyuan-turbo 20 نوامبر 2024، نسخهای بین hunyuan-turbo و hunyuan-turbo-latest."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "بهینهسازیهای این نسخه: مقیاسدهی دستورات داده، بهطور قابل توجهی توانایی تعمیم عمومی مدل را افزایش میدهد؛ بهطور قابل توجهی تواناییهای ریاضی، کدنویسی و استدلال منطقی را بهبود میبخشد؛ بهینهسازی تواناییهای درک متن و کلمات مرتبط با آن؛ بهینهسازی کیفیت تولید محتوای خلق متن."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "مدل بزرگ زبان بصری نسل جدید Hunyuan، با استفاده از ساختار جدید مدلهای متخصص ترکیبی (MoE)، در تواناییهای مربوط به درک تصویر و متن، خلق محتوا، پرسش و پاسخ دانش و تحلیل استدلال نسبت به مدلهای نسل قبلی بهطور جامع بهبود یافته است."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 نسخه ثابت پیشساخته با ارتقاء تعداد توکنهای آموزش؛ بهبود تواناییهای تفکر در ریاضی/منطق/کد و بهبود تجربه عمومی در زبانهای چینی و انگلیسی، شامل تولید متن، درک متن، پرسش و پاسخ دانش، گپ و گفت و غیره."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "سبک یکسانسازی مراحل حل مسائل ریاضی، تقویت پرسش و پاسخ چند مرحلهای ریاضی. بهینهسازی سبک پاسخگویی در تولید متن، حذف طعم AI و افزایش ادبیات."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS آخرین نسخه مدل بزرگ پرچمدار مختلط است که دارای توانایی تفکر قویتر و تجربه بهتری است."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "جدیدترین مدل چندوجهی هونیوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "مدلهای یادگیری ماشین مبتنی بر GPU بدون سرور را در شبکه جهانی Cloudflare اجرا کنید."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere جدیدترین مدلهای چند زبانه، قابلیتهای پیشرفته جستجو و فضای کاری هوش مصنوعی سفارشی برای کسبوکارهای مدرن را به شما ارائه میدهد - همه اینها در یک پلتفرم امن یکپارچه شدهاند."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، تواناییهای مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینههایی مانند همترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud به توسعهدهندگان این امکان را میدهد که به راحتی از بهترین مدلهای متنباز استفاده کنند و از سریعترین سرعت استنتاج بهرهمند شوند."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API دسترسی به مجموعه مدلهای DeepSeek را که میتوانند به صورت خودکار به اینترنت متصل شوند، ارائه میدهد، شامل نسخه استاندارد و نسخه سریع، که از انتخاب مدل با مقیاسهای مختلف پارامتر پشتیبانی میکند."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "سنسنووا، با تکیه بر زیرساختهای قوی سنستک، خدمات مدلهای بزرگ تمامپشتهای را بهصورت کارآمد و آسان ارائه میدهد."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Nous sommes désolés, une erreur est survenue lors de l'initialisation de la base de données Pglite. Veuillez cliquer sur le bouton pour réessayer. Si l'erreur persiste après plusieurs tentatives, veuillez <1>soumettre un problème</1>, nous vous aiderons à le résoudre dans les meilleurs délais.",
|
43
43
|
"detail": "Raison de l'erreur : [[{{type}}] {{message}}. Détails ci-dessous :",
|
44
|
+
"detailTitle": "Raison de l'erreur",
|
45
|
+
"report": "Signaler un problème",
|
44
46
|
"retry": "Réessayer",
|
47
|
+
"selfSolve": "Résolution autonome",
|
45
48
|
"title": "Échec de l'initialisation de la base de données"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Utiliser maintenant",
|
81
84
|
"desc": "Prêt à l'emploi",
|
82
85
|
"title": "Base de données PGlite prête"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Sauvegarde",
|
90
|
+
"backupSuccess": "Sauvegarde réussie",
|
91
|
+
"desc": "Exporter les données clés de la base de données actuelle",
|
92
|
+
"export": "Exporter toutes les données",
|
93
|
+
"exportDesc": "Les données exportées seront enregistrées au format JSON, pouvant être utilisées pour une restauration ou une analyse ultérieure.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Avertissement",
|
96
|
+
"alertDesc": "Les opérations suivantes peuvent entraîner une perte de données. Veuillez vous assurer que vous avez sauvegardé les données importantes avant de continuer.",
|
97
|
+
"button": "Réinitialiser complètement la base de données (supprimer toutes les données)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Cette opération supprimera toutes les données et ne pourra pas être annulée, confirmez-vous la poursuite ?",
|
100
|
+
"title": "Confirmer la réinitialisation de la base de données"
|
101
|
+
},
|
102
|
+
"desc": "Réinitialiser la base de données en cas de migration irréversible",
|
103
|
+
"title": "Réinitialisation de la base de données"
|
104
|
+
},
|
105
|
+
"restore": "Restaurer",
|
106
|
+
"restoreSuccess": "Restauration réussie",
|
107
|
+
"title": "Sauvegarde des données"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Date de création",
|
111
|
+
"migratedAt": "Date de migration terminée",
|
112
|
+
"sql": "SQL de migration",
|
113
|
+
"title": "État de la migration"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Gestion manuelle de l'état de migration",
|
117
|
+
"runSQL": "Exécution personnalisée",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Vider",
|
120
|
+
"desc": "Exécuter des instructions SQL personnalisées pour réparer les problèmes de la base de données",
|
121
|
+
"markFinished": "Marquer comme terminé",
|
122
|
+
"placeholder": "Entrer l'instruction SQL...",
|
123
|
+
"result": "Résultat de l'exécution",
|
124
|
+
"run": "Exécuter",
|
125
|
+
"title": "Exécuteur SQL"
|
126
|
+
},
|
127
|
+
"title": "Contrôle de migration"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Sauvegarde et restauration",
|
131
|
+
"diagnosis": "Diagnostic",
|
132
|
+
"repair": "Réparation"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Fermer",
|