@lobehub/chat 1.74.1 → 1.74.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (91) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/README.md +2 -2
  3. package/README.zh-CN.md +2 -2
  4. package/changelog/v1.json +18 -0
  5. package/docs/developer/database-schema.dbml +54 -2
  6. package/docs/self-hosting/environment-variables/model-provider.mdx +9 -7
  7. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +9 -7
  8. package/locales/ar/common.json +51 -0
  9. package/locales/ar/models.json +69 -3
  10. package/locales/ar/providers.json +6 -0
  11. package/locales/bg-BG/common.json +51 -0
  12. package/locales/bg-BG/models.json +69 -3
  13. package/locales/bg-BG/providers.json +6 -0
  14. package/locales/de-DE/common.json +51 -0
  15. package/locales/de-DE/models.json +69 -3
  16. package/locales/de-DE/providers.json +6 -0
  17. package/locales/en-US/common.json +51 -0
  18. package/locales/en-US/models.json +69 -3
  19. package/locales/en-US/providers.json +6 -3
  20. package/locales/es-ES/common.json +51 -0
  21. package/locales/es-ES/models.json +69 -3
  22. package/locales/es-ES/providers.json +6 -0
  23. package/locales/fa-IR/common.json +51 -0
  24. package/locales/fa-IR/models.json +69 -3
  25. package/locales/fa-IR/providers.json +6 -0
  26. package/locales/fr-FR/common.json +51 -0
  27. package/locales/fr-FR/models.json +69 -3
  28. package/locales/fr-FR/providers.json +6 -0
  29. package/locales/it-IT/common.json +51 -0
  30. package/locales/it-IT/models.json +69 -3
  31. package/locales/it-IT/providers.json +6 -0
  32. package/locales/ja-JP/common.json +51 -0
  33. package/locales/ja-JP/models.json +78 -4
  34. package/locales/ja-JP/providers.json +6 -0
  35. package/locales/ko-KR/common.json +51 -0
  36. package/locales/ko-KR/models.json +69 -3
  37. package/locales/ko-KR/providers.json +6 -0
  38. package/locales/nl-NL/common.json +51 -0
  39. package/locales/nl-NL/models.json +69 -3
  40. package/locales/nl-NL/providers.json +6 -0
  41. package/locales/pl-PL/common.json +51 -0
  42. package/locales/pl-PL/models.json +69 -3
  43. package/locales/pl-PL/providers.json +6 -0
  44. package/locales/pt-BR/common.json +51 -0
  45. package/locales/pt-BR/models.json +69 -3
  46. package/locales/pt-BR/providers.json +6 -0
  47. package/locales/ru-RU/common.json +51 -0
  48. package/locales/ru-RU/models.json +69 -3
  49. package/locales/ru-RU/providers.json +6 -0
  50. package/locales/tr-TR/common.json +51 -0
  51. package/locales/tr-TR/models.json +69 -3
  52. package/locales/tr-TR/providers.json +6 -0
  53. package/locales/vi-VN/common.json +51 -0
  54. package/locales/vi-VN/models.json +69 -3
  55. package/locales/vi-VN/providers.json +6 -0
  56. package/locales/zh-CN/common.json +53 -2
  57. package/locales/zh-CN/models.json +79 -13
  58. package/locales/zh-CN/providers.json +6 -4
  59. package/locales/zh-TW/common.json +51 -0
  60. package/locales/zh-TW/models.json +81 -4
  61. package/locales/zh-TW/providers.json +6 -0
  62. package/package.json +1 -1
  63. package/packages/web-crawler/src/utils/__tests__/withTimeout.test.ts +0 -1
  64. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +9 -1
  65. package/src/config/aiModels/qwen.ts +4 -4
  66. package/src/config/aiModels/volcengine.ts +2 -2
  67. package/src/database/client/db.ts +102 -11
  68. package/src/database/client/migrations.json +38 -8
  69. package/src/database/migrations/0018_add_client_id_for_entities.sql +32 -0
  70. package/src/database/migrations/meta/0018_snapshot.json +4212 -0
  71. package/src/database/migrations/meta/_journal.json +7 -0
  72. package/src/database/models/drizzleMigration.ts +23 -0
  73. package/src/database/schemas/agent.ts +48 -31
  74. package/src/database/schemas/file.ts +32 -16
  75. package/src/database/schemas/message.ts +91 -54
  76. package/src/database/schemas/rag.ts +65 -32
  77. package/src/database/schemas/session.ts +6 -3
  78. package/src/database/schemas/topic.ts +31 -24
  79. package/src/features/InitClientDB/ErrorResult.tsx +53 -32
  80. package/src/features/InitClientDB/features/DatabaseRepair/Backup.tsx +77 -0
  81. package/src/features/InitClientDB/features/DatabaseRepair/Diagnosis.tsx +98 -0
  82. package/src/features/InitClientDB/features/DatabaseRepair/Repair.tsx +220 -0
  83. package/src/features/InitClientDB/features/DatabaseRepair/index.tsx +85 -0
  84. package/src/features/ModelSwitchPanel/index.tsx +13 -7
  85. package/src/locales/default/common.ts +53 -1
  86. package/src/store/global/actions/clientDb.ts +19 -3
  87. package/src/store/global/initialState.ts +6 -1
  88. package/src/store/global/selectors/clientDB.ts +43 -0
  89. package/src/store/global/selectors/index.ts +1 -0
  90. package/src/store/user/slices/settings/selectors/general.test.ts +90 -0
  91. package/src/types/clientDB.ts +13 -0
@@ -41,7 +41,10 @@
41
41
  "error": {
42
42
  "desc": "Lo sentimos, ha ocurrido una excepción en el proceso de inicialización de la base de datos Pglite. Por favor, haga clic en el botón para intentar de nuevo. Si después de varios intentos sigue ocurriendo el mismo error, por favor <1>envíe un problema</1>, y lo resolveremos lo antes posible.",
43
43
  "detail": "Razón del error: [{{type}}] {{message}}. Detalles a continuación:",
44
+ "detailTitle": "Razón del error",
45
+ "report": "Informar problema",
44
46
  "retry": "Reintentar",
47
+ "selfSolve": "Solución autónoma",
45
48
  "title": "Falló la inicialización de la base de datos"
46
49
  },
47
50
  "initing": {
@@ -80,6 +83,54 @@
80
83
  "button": "Usar ahora",
81
84
  "desc": "Listo para usar",
82
85
  "title": "La base de datos PGlite está lista"
86
+ },
87
+ "solve": {
88
+ "backup": {
89
+ "backup": "Copia de seguridad",
90
+ "backupSuccess": "Copia de seguridad exitosa",
91
+ "desc": "Exportar datos clave de la base de datos actual",
92
+ "export": "Exportar todos los datos",
93
+ "exportDesc": "Los datos exportados se guardarán en formato JSON, que se puede utilizar para recuperación o análisis posterior.",
94
+ "reset": {
95
+ "alert": "Advertencia",
96
+ "alertDesc": "Las siguientes operaciones pueden causar pérdida de datos. Asegúrese de haber respaldado datos importantes antes de continuar.",
97
+ "button": "Restablecer completamente la base de datos (eliminar todos los datos)",
98
+ "confirm": {
99
+ "desc": "Esta operación eliminará todos los datos y no se puede deshacer, ¿confirma que desea continuar?",
100
+ "title": "Confirmar restablecimiento de la base de datos"
101
+ },
102
+ "desc": "Restablecer la base de datos en caso de migración no recuperable",
103
+ "title": "Restablecimiento de la base de datos"
104
+ },
105
+ "restore": "Restaurar",
106
+ "restoreSuccess": "Restauración exitosa",
107
+ "title": "Copia de seguridad de datos"
108
+ },
109
+ "diagnosis": {
110
+ "createdAt": "Fecha de creación",
111
+ "migratedAt": "Fecha de finalización de la migración",
112
+ "sql": "SQL de migración",
113
+ "title": "Estado de la migración"
114
+ },
115
+ "repair": {
116
+ "desc": "Gestionar manualmente el estado de la migración",
117
+ "runSQL": "Ejecutar personalizado",
118
+ "sql": {
119
+ "clear": "Limpiar",
120
+ "desc": "Ejecutar sentencias SQL personalizadas para reparar problemas de la base de datos",
121
+ "markFinished": "Marcar como completado",
122
+ "placeholder": "Introducir sentencia SQL...",
123
+ "result": "Resultado de la ejecución",
124
+ "run": "Ejecutar",
125
+ "title": "Ejecutor de SQL"
126
+ },
127
+ "title": "Control de migración"
128
+ },
129
+ "tabs": {
130
+ "backup": "Copia de seguridad y restauración",
131
+ "diagnosis": "Diagnóstico",
132
+ "repair": "Reparar"
133
+ }
83
134
  }
84
135
  },
85
136
  "close": "Cerrar",
@@ -518,6 +518,18 @@
518
518
  "baichuan/baichuan2-13b-chat": {
519
519
  "description": "Baichuan-13B es un modelo de lenguaje de gran escala de código abierto y comercializable desarrollado por Baichuan Intelligence, que cuenta con 13 mil millones de parámetros y ha logrado los mejores resultados en benchmarks autorizados en chino e inglés."
520
520
  },
521
+ "c4ai-aya-expanse-32b": {
522
+ "description": "Aya Expanse es un modelo multilingüe de alto rendimiento de 32B, diseñado para desafiar el rendimiento de los modelos monolingües a través de innovaciones en ajuste por instrucciones, arbitraje de datos, entrenamiento de preferencias y fusión de modelos. Soporta 23 idiomas."
523
+ },
524
+ "c4ai-aya-expanse-8b": {
525
+ "description": "Aya Expanse es un modelo multilingüe de alto rendimiento de 8B, diseñado para desafiar el rendimiento de los modelos monolingües a través de innovaciones en ajuste por instrucciones, arbitraje de datos, entrenamiento de preferencias y fusión de modelos. Soporta 23 idiomas."
526
+ },
527
+ "c4ai-aya-vision-32b": {
528
+ "description": "Aya Vision es un modelo multimodal de última generación, que destaca en múltiples benchmarks clave de capacidades lingüísticas, textuales y visuales. Soporta 23 idiomas. Esta versión de 32B se centra en el rendimiento multilingüe de vanguardia."
529
+ },
530
+ "c4ai-aya-vision-8b": {
531
+ "description": "Aya Vision es un modelo multimodal de última generación, que destaca en múltiples benchmarks clave de capacidades lingüísticas, textuales y visuales. Esta versión de 8B se centra en baja latencia y rendimiento óptimo."
532
+ },
521
533
  "charglm-3": {
522
534
  "description": "CharGLM-3 está diseñado para juegos de rol y acompañamiento emocional, soportando memoria de múltiples rondas y diálogos personalizados, con aplicaciones amplias."
523
535
  },
@@ -602,12 +614,39 @@
602
614
  "cohere-command-r-plus": {
603
615
  "description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial."
604
616
  },
617
+ "command": {
618
+ "description": "Un modelo de conversación que sigue instrucciones, ofreciendo alta calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que nuestros modelos de generación básicos."
619
+ },
620
+ "command-a-03-2025": {
621
+ "description": "Command A es nuestro modelo más potente hasta la fecha, destacando en el uso de herramientas, agentes, generación aumentada por recuperación (RAG) y aplicaciones multilingües. Command A tiene una longitud de contexto de 256K, puede ejecutarse con solo dos GPU y ha mejorado su rendimiento en un 150% en comparación con Command R+ 08-2024."
622
+ },
623
+ "command-light": {
624
+ "description": "Una versión más pequeña y rápida de Command, casi igual de potente, pero más rápida."
625
+ },
626
+ "command-light-nightly": {
627
+ "description": "Para acortar el intervalo entre lanzamientos de versiones principales, hemos lanzado versiones nocturnas del modelo Command. Para la serie command-light, esta versión se llama command-light-nightly. Tenga en cuenta que command-light-nightly es la versión más reciente, experimental y (posiblemente) inestable. Las versiones nocturnas se actualizan regularmente sin previo aviso, por lo que no se recomienda su uso en entornos de producción."
628
+ },
629
+ "command-nightly": {
630
+ "description": "Para acortar el intervalo entre lanzamientos de versiones principales, hemos lanzado versiones nocturnas del modelo Command. Para la serie Command, esta versión se llama command-cightly. Tenga en cuenta que command-nightly es la versión más reciente, experimental y (posiblemente) inestable. Las versiones nocturnas se actualizan regularmente sin previo aviso, por lo que no se recomienda su uso en entornos de producción."
631
+ },
605
632
  "command-r": {
606
633
  "description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento."
607
634
  },
635
+ "command-r-03-2024": {
636
+ "description": "Command R es un modelo de conversación que sigue instrucciones, ofreciendo una mayor calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que los modelos anteriores. Se puede utilizar en flujos de trabajo complejos, como generación de código, generación aumentada por recuperación (RAG), uso de herramientas y agentes."
637
+ },
638
+ "command-r-08-2024": {
639
+ "description": "command-r-08-2024 es una versión actualizada del modelo Command R, lanzada en agosto de 2024."
640
+ },
608
641
  "command-r-plus": {
609
642
  "description": "Command R+ es un modelo de lenguaje de gran tamaño de alto rendimiento, diseñado para escenarios empresariales reales y aplicaciones complejas."
610
643
  },
644
+ "command-r-plus-04-2024": {
645
+ "description": "Command R+ es un modelo de conversación que sigue instrucciones, ofreciendo una mayor calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que los modelos anteriores. Es ideal para flujos de trabajo complejos de RAG y uso de herramientas en múltiples pasos."
646
+ },
647
+ "command-r7b-12-2024": {
648
+ "description": "command-r7b-12-2024 es una versión pequeña y eficiente, lanzada en diciembre de 2024. Destaca en tareas que requieren razonamiento complejo y procesamiento en múltiples pasos, como RAG, uso de herramientas y agentes."
649
+ },
611
650
  "dall-e-2": {
612
651
  "description": "El segundo modelo DALL·E, que admite generación de imágenes más realistas y precisas, con una resolución cuatro veces mayor que la de la primera generación."
613
652
  },
@@ -668,12 +707,24 @@
668
707
  "deepseek-r1": {
669
708
  "description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
670
709
  },
710
+ "deepseek-r1-70b-fast-online": {
711
+ "description": "DeepSeek R1 70B versión rápida, que soporta búsqueda en línea en tiempo real, ofreciendo una velocidad de respuesta más rápida mientras mantiene el rendimiento del modelo."
712
+ },
713
+ "deepseek-r1-70b-online": {
714
+ "description": "DeepSeek R1 70B versión estándar, que soporta búsqueda en línea en tiempo real, adecuada para tareas de conversación y procesamiento de textos que requieren información actualizada."
715
+ },
671
716
  "deepseek-r1-distill-llama-70b": {
672
717
  "description": "DeepSeek R1, el modelo más grande e inteligente del conjunto DeepSeek, ha sido destilado en la arquitectura Llama 70B. Basado en pruebas de referencia y evaluaciones humanas, este modelo es más inteligente que el Llama 70B original, destacándose especialmente en tareas que requieren precisión matemática y factual."
673
718
  },
674
719
  "deepseek-r1-distill-llama-8b": {
675
720
  "description": "El modelo de la serie DeepSeek-R1-Distill se obtiene mediante la técnica de destilación de conocimiento, ajustando muestras generadas por DeepSeek-R1 a modelos de código abierto como Qwen y Llama."
676
721
  },
722
+ "deepseek-r1-distill-qianfan-llama-70b": {
723
+ "description": "Lanzado por primera vez el 14 de febrero de 2025, destilado por el equipo de desarrollo del modelo Qianfan a partir del modelo base Llama3_70B (Construido con Meta Llama), con datos de destilación que también incluyen el corpus de Qianfan."
724
+ },
725
+ "deepseek-r1-distill-qianfan-llama-8b": {
726
+ "description": "Lanzado por primera vez el 14 de febrero de 2025, destilado por el equipo de desarrollo del modelo Qianfan a partir del modelo base Llama3_8B (Construido con Meta Llama), con datos de destilación que también incluyen el corpus de Qianfan."
727
+ },
677
728
  "deepseek-r1-distill-qwen-1.5b": {
678
729
  "description": "El modelo de la serie DeepSeek-R1-Distill se obtiene mediante la técnica de destilación de conocimiento, ajustando muestras generadas por DeepSeek-R1 a modelos de código abierto como Qwen y Llama."
679
730
  },
@@ -686,6 +737,12 @@
686
737
  "deepseek-r1-distill-qwen-7b": {
687
738
  "description": "El modelo de la serie DeepSeek-R1-Distill se obtiene mediante la técnica de destilación de conocimiento, ajustando muestras generadas por DeepSeek-R1 a modelos de código abierto como Qwen y Llama."
688
739
  },
740
+ "deepseek-r1-fast-online": {
741
+ "description": "DeepSeek R1 versión rápida completa, que soporta búsqueda en línea en tiempo real, combinando la potente capacidad de 671B de parámetros con una velocidad de respuesta más rápida."
742
+ },
743
+ "deepseek-r1-online": {
744
+ "description": "DeepSeek R1 versión completa, con 671B de parámetros, que soporta búsqueda en línea en tiempo real, con una capacidad de comprensión y generación más potente."
745
+ },
689
746
  "deepseek-reasoner": {
690
747
  "description": "Modelo de inferencia lanzado por DeepSeek. Antes de proporcionar la respuesta final, el modelo genera primero una cadena de pensamiento para mejorar la precisión de la respuesta final."
691
748
  },
@@ -764,6 +821,9 @@
764
821
  "ernie-4.0-turbo-8k-preview": {
765
822
  "description": "El modelo de lenguaje grande de bandera de Baidu, desarrollado internamente, de ultra gran escala, muestra un rendimiento excepcional en general, siendo ampliamente aplicable en escenarios de tareas complejas en diversos campos; soporta la integración automática con el plugin de búsqueda de Baidu, garantizando la actualidad de la información de preguntas y respuestas. En comparación con ERNIE 4.0, presenta un rendimiento superior."
766
823
  },
824
+ "ernie-4.5-8k-preview": {
825
+ "description": "El modelo grande Wenxin 4.5 es un nuevo modelo base multimodal nativo desarrollado por Baidu, que logra una optimización colaborativa a través de modelado conjunto de múltiples modalidades, con excelentes capacidades de comprensión multimodal; presenta una capacidad lingüística más avanzada, con mejoras en comprensión, generación, lógica y memoria, así como una notable reducción de alucinaciones y mejoras en razonamiento lógico y capacidades de codificación."
826
+ },
767
827
  "ernie-char-8k": {
768
828
  "description": "Modelo de lenguaje grande de escenario vertical desarrollado internamente por Baidu, adecuado para aplicaciones como NPC de juegos, diálogos de servicio al cliente y juegos de rol de diálogos, con un estilo de personaje más distintivo y consistente, y una mayor capacidad de seguimiento de instrucciones y rendimiento de inferencia."
769
829
  },
@@ -1097,9 +1157,6 @@
1097
1157
  "hunyuan-turbo": {
1098
1158
  "description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
1099
1159
  },
1100
- "hunyuan-turbo-20241120": {
1101
- "description": "Versión fija de hunyuan-turbo del 20 de noviembre de 2024, una versión intermedia entre hunyuan-turbo y hunyuan-turbo-latest."
1102
- },
1103
1160
  "hunyuan-turbo-20241223": {
1104
1161
  "description": "Optimización de esta versión: escalado de instrucciones de datos, mejora significativa de la capacidad de generalización del modelo; mejora significativa de las capacidades de matemáticas, código y razonamiento lógico; optimización de la comprensión de texto y de palabras relacionadas; optimización de la calidad de generación de contenido en la creación de texto."
1105
1162
  },
@@ -1109,6 +1166,15 @@
1109
1166
  "hunyuan-turbo-vision": {
1110
1167
  "description": "El nuevo modelo insignia de lenguaje visual de Hunyuan de nueva generación, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), mejorando de manera integral las capacidades de reconocimiento básico, creación de contenido, preguntas y respuestas de conocimiento, y análisis y razonamiento en comparación con la generación anterior de modelos."
1111
1168
  },
1169
+ "hunyuan-turbos-20250226": {
1170
+ "description": "hunyuan-TurboS pv2.1.2 es una versión fija con un aumento en el número de tokens de entrenamiento; mejora en las capacidades de pensamiento en matemáticas/lógica/código; mejora en la experiencia general en chino e inglés, incluyendo creación de textos, comprensión de textos, preguntas y respuestas de conocimiento, y charlas informales."
1171
+ },
1172
+ "hunyuan-turbos-20250313": {
1173
+ "description": "Unificación del estilo de pasos de resolución matemática, mejorando las preguntas y respuestas matemáticas en múltiples rondas. Optimización del estilo de respuesta en la creación de textos, eliminando el sabor a IA y aumentando la elegancia."
1174
+ },
1175
+ "hunyuan-turbos-latest": {
1176
+ "description": "hunyuan-TurboS es la última versión del modelo insignia Hunyuan, con una mayor capacidad de pensamiento y una mejor experiencia."
1177
+ },
1112
1178
  "hunyuan-vision": {
1113
1179
  "description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual."
1114
1180
  },
@@ -23,6 +23,9 @@
23
23
  "cloudflare": {
24
24
  "description": "Ejecuta modelos de aprendizaje automático impulsados por GPU sin servidor en la red global de Cloudflare."
25
25
  },
26
+ "cohere": {
27
+ "description": "Cohere le ofrece los modelos multilingües más avanzados, potentes funciones de búsqueda y un espacio de trabajo de IA diseñado a medida para empresas modernas, todo integrado en una plataforma segura."
28
+ },
26
29
  "deepseek": {
27
30
  "description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones."
28
31
  },
@@ -101,6 +104,9 @@
101
104
  "sambanova": {
102
105
  "description": "SambaNova Cloud permite a los desarrolladores utilizar fácilmente los mejores modelos de código abierto y disfrutar de la velocidad de inferencia más rápida."
103
106
  },
107
+ "search1api": {
108
+ "description": "Search1API proporciona acceso a la serie de modelos DeepSeek que se pueden conectar a Internet según sea necesario, incluyendo versiones estándar y rápidas, con soporte para la selección de modelos de diferentes escalas de parámetros."
109
+ },
104
110
  "sensenova": {
105
111
  "description": "SenseTime ofrece servicios de modelos grandes de pila completa, aprovechando el sólido soporte de la gran infraestructura de SenseTime."
106
112
  },
@@ -41,7 +41,10 @@
41
41
  "error": {
42
42
  "desc": "متأسفیم، در روند初始化 پایگاه داده Pglite خطایی رخ داده است. لطفاً دکمه را برای تلاش مجدد فشار دهید. اگر پس از چندین بار تلاش، هنوز خطا تکرار شد، لطفاً <1>مسئله را گزارش کنید</1>، ما در اولین فرصت به شما کمک خواهیم کرد.",
43
43
  "detail": "علت خطا: [{{type}}] {{message}}، جزئیات به شرح زیر است:",
44
+ "detailTitle": "علت خطا",
45
+ "report": "گزارش مشکل",
44
46
  "retry": "تکرار",
47
+ "selfSolve": "حل خودکار",
45
48
  "title": "خطای در初始化 پایگاه داده"
46
49
  },
47
50
  "initing": {
@@ -80,6 +83,54 @@
80
83
  "button": "همین حالا استفاده کنید",
81
84
  "desc": "همین حالا می‌خواهید استفاده کنید",
82
85
  "title": "پایگاه داده PGlite آماده است"
86
+ },
87
+ "solve": {
88
+ "backup": {
89
+ "backup": "پشتیبان‌گیری",
90
+ "backupSuccess": "پشتیبان‌گیری موفق",
91
+ "desc": "صادرات داده‌های کلیدی از پایگاه داده فعلی",
92
+ "export": "صادرات تمام داده‌ها",
93
+ "exportDesc": "داده‌های صادراتی به فرمت JSON ذخیره خواهند شد و می‌توانند برای بازیابی یا تحلیل‌های بعدی استفاده شوند.",
94
+ "reset": {
95
+ "alert": "هشدار",
96
+ "alertDesc": "عملیات زیر ممکن است منجر به از دست رفتن داده‌ها شود. لطفاً اطمینان حاصل کنید که داده‌های مهم را پشتیبان‌گیری کرده‌اید و سپس ادامه دهید.",
97
+ "button": "بازنشانی کامل پایگاه داده (حذف تمام داده‌ها)",
98
+ "confirm": {
99
+ "desc": "این عملیات تمام داده‌ها را حذف کرده و غیرقابل بازگشت خواهد بود، آیا مطمئن هستید که می‌خواهید ادامه دهید؟",
100
+ "title": "تأیید بازنشانی پایگاه داده"
101
+ },
102
+ "desc": "در صورت عدم امکان بازیابی، پایگاه داده را بازنشانی کنید",
103
+ "title": "بازنشانی پایگاه داده"
104
+ },
105
+ "restore": "بازیابی",
106
+ "restoreSuccess": "بازیابی موفق",
107
+ "title": "پشتیبان‌گیری داده‌ها"
108
+ },
109
+ "diagnosis": {
110
+ "createdAt": "زمان ایجاد",
111
+ "migratedAt": "زمان اتمام مهاجرت",
112
+ "sql": "SQL مهاجرت",
113
+ "title": "وضعیت مهاجرت"
114
+ },
115
+ "repair": {
116
+ "desc": "مدیریت دستی وضعیت مهاجرت",
117
+ "runSQL": "اجرا سفارشی",
118
+ "sql": {
119
+ "clear": "پاک کردن",
120
+ "desc": "اجرای دستورات SQL سفارشی برای رفع مشکلات پایگاه داده",
121
+ "markFinished": "علامت‌گذاری به عنوان تکمیل شده",
122
+ "placeholder": "دستور SQL را وارد کنید...",
123
+ "result": "نتیجه اجرا",
124
+ "run": "اجرا",
125
+ "title": "اجراکننده SQL"
126
+ },
127
+ "title": "کنترل مهاجرت"
128
+ },
129
+ "tabs": {
130
+ "backup": "بازیابی پشتیبان",
131
+ "diagnosis": "تشخیص",
132
+ "repair": "رفع مشکل"
133
+ }
83
134
  }
84
135
  },
85
136
  "close": "بستن",
@@ -518,6 +518,18 @@
518
518
  "baichuan/baichuan2-13b-chat": {
519
519
  "description": "Baichuan-13B یک مدل زبان بزرگ متن باز و قابل تجاری با 130 میلیارد پارامتر است که در آزمون‌های معتبر چینی و انگلیسی بهترین عملکرد را در اندازه مشابه به دست آورده است."
520
520
  },
521
+ "c4ai-aya-expanse-32b": {
522
+ "description": "Aya Expanse یک مدل چندزبانه با عملکرد بالا و 32B است که با هدف به چالش کشیدن عملکرد مدل‌های تک‌زبانه از طریق بهینه‌سازی دستور، آربیتراژ داده‌ها، آموزش ترجیحات و نوآوری در ادغام مدل‌ها طراحی شده است. این مدل از 23 زبان پشتیبانی می‌کند."
523
+ },
524
+ "c4ai-aya-expanse-8b": {
525
+ "description": "Aya Expanse یک مدل چندزبانه با عملکرد بالا و 8B است که با هدف به چالش کشیدن عملکرد مدل‌های تک‌زبانه از طریق بهینه‌سازی دستور، آربیتراژ داده‌ها، آموزش ترجیحات و نوآوری در ادغام مدل‌ها طراحی شده است. این مدل از 23 زبان پشتیبانی می‌کند."
526
+ },
527
+ "c4ai-aya-vision-32b": {
528
+ "description": "Aya Vision یک مدل چندرسانه‌ای پیشرفته است که در چندین معیار کلیدی در زمینه زبان، متن و تصویر عملکرد فوق‌العاده‌ای دارد. این نسخه با 320 میلیارد پارامتر بر روی عملکرد چندزبانه پیشرفته تمرکز دارد."
529
+ },
530
+ "c4ai-aya-vision-8b": {
531
+ "description": "Aya Vision یک مدل چندرسانه‌ای پیشرفته است که در چندین معیار کلیدی در زمینه زبان، متن و تصویر عملکرد فوق‌العاده‌ای دارد. این نسخه با 80 میلیارد پارامتر بر روی تأخیر کم و بهترین عملکرد تمرکز دارد."
532
+ },
521
533
  "charglm-3": {
522
534
  "description": "CharGLM-3 به‌طور ویژه برای نقش‌آفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانی‌مدت و مکالمات شخصی‌سازی‌شده پشتیبانی می‌کند و کاربردهای گسترده‌ای دارد."
523
535
  },
@@ -602,12 +614,39 @@
602
614
  "cohere-command-r-plus": {
603
615
  "description": "Command R+ یک مدل پیشرفته بهینه‌سازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
604
616
  },
617
+ "command": {
618
+ "description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه می‌دهد و نسبت به مدل‌های تولید پایه ما دارای طول زمینه بیشتری است."
619
+ },
620
+ "command-a-03-2025": {
621
+ "description": "Command A قوی‌ترین مدل ما تا به امروز است که در استفاده از ابزارها، نمایندگی، تولید تقویت‌شده با جستجو (RAG) و سناریوهای چندزبانه عملکرد فوق‌العاده‌ای دارد. Command A دارای طول زمینه 256K است و تنها به دو واحد GPU نیاز دارد و نسبت به Command R+ 08-2024، توان عملیاتی آن 150% افزایش یافته است."
622
+ },
623
+ "command-light": {
624
+ "description": "یک نسخه کوچک‌تر و سریع‌تر از Command که تقریباً به همان اندازه قوی است اما سریع‌تر عمل می‌کند."
625
+ },
626
+ "command-light-nightly": {
627
+ "description": "برای کاهش فاصله زمانی بین انتشار نسخه‌های اصلی، ما نسخه‌های شبانه مدل Command را معرفی کرده‌ایم. برای سری command-light، این نسخه به نام command-light-nightly شناخته می‌شود. لطفاً توجه داشته باشید که command-light-nightly جدیدترین، آزمایشی‌ترین و (احتمالاً) ناپایدارترین نسخه است. نسخه‌های شبانه به‌طور منظم به‌روزرسانی می‌شوند و بدون اطلاع قبلی منتشر می‌شوند، بنابراین استفاده از آن در محیط‌های تولیدی توصیه نمی‌شود."
628
+ },
629
+ "command-nightly": {
630
+ "description": "برای کاهش فاصله زمانی بین انتشار نسخه‌های اصلی، ما نسخه‌های شبانه مدل Command را معرفی کرده‌ایم. برای سری Command، این نسخه به نام command-cightly شناخته می‌شود. لطفاً توجه داشته باشید که command-nightly جدیدترین، آزمایشی‌ترین و (احتمالاً) ناپایدارترین نسخه است. نسخه‌های شبانه به‌طور منظم به‌روزرسانی می‌شوند و بدون اطلاع قبلی منتشر می‌شوند، بنابراین استفاده از آن در محیط‌های تولیدی توصیه نمی‌شود."
631
+ },
605
632
  "command-r": {
606
633
  "description": "Command R یک LLM بهینه‌سازی شده برای مکالمات و وظایف با متن طولانی است که به‌ویژه برای تعاملات پویا و مدیریت دانش مناسب است."
607
634
  },
635
+ "command-r-03-2024": {
636
+ "description": "Command R یک مدل گفتگوی پیروی از دستور است که در وظایف زبانی کیفیت بالاتری را ارائه می‌دهد و نسبت به مدل‌های قبلی دارای طول زمینه بیشتری است. این مدل می‌تواند در جریان‌های کاری پیچیده مانند تولید کد، تولید تقویت‌شده با جستجو (RAG)، استفاده از ابزارها و نمایندگی استفاده شود."
637
+ },
638
+ "command-r-08-2024": {
639
+ "description": "command-r-08-2024 نسخه به‌روزرسانی شده مدل Command R است که در آگوست 2024 منتشر شد."
640
+ },
608
641
  "command-r-plus": {
609
642
  "description": "Command R+ یک مدل زبان بزرگ با عملکرد بالا است که برای سناریوهای واقعی کسب‌وکار و کاربردهای پیچیده طراحی شده است."
610
643
  },
644
+ "command-r-plus-04-2024": {
645
+ "description": "Command R+ یک مدل گفتگوی پیروی از دستور است که در وظایف زبانی کیفیت بالاتری را ارائه می‌دهد و نسبت به مدل‌های قبلی دارای طول زمینه بیشتری است. این مدل برای جریان‌های کاری پیچیده RAG و استفاده از ابزارهای چند مرحله‌ای مناسب‌ترین است."
646
+ },
647
+ "command-r7b-12-2024": {
648
+ "description": "command-r7b-12-2024 یک نسخه کوچک و کارآمد به‌روزرسانی شده است که در دسامبر 2024 منتشر شد. این مدل در RAG، استفاده از ابزارها، نمایندگی و سایر وظایفی که نیاز به استدلال پیچیده و پردازش چند مرحله‌ای دارند، عملکرد فوق‌العاده‌ای دارد."
649
+ },
611
650
  "dall-e-2": {
612
651
  "description": "مدل نسل دوم DALL·E، پشتیبانی از تولید تصاویر واقعی‌تر و دقیق‌تر، با وضوح 4 برابر نسل اول."
613
652
  },
@@ -668,12 +707,24 @@
668
707
  "deepseek-r1": {
669
708
  "description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 داده‌های شروع سرد را معرفی کرد و عملکرد استنتاج را بهینه‌تر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روش‌های آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
670
709
  },
710
+ "deepseek-r1-70b-fast-online": {
711
+ "description": "DeepSeek R1 70B نسخه سریع است که از جستجوی آنلاین زنده پشتیبانی می‌کند و در عین حفظ عملکرد مدل، سرعت پاسخ‌دهی سریع‌تری را ارائه می‌دهد."
712
+ },
713
+ "deepseek-r1-70b-online": {
714
+ "description": "DeepSeek R1 70B نسخه استاندارد است که از جستجوی آنلاین زنده پشتیبانی می‌کند و برای گفتگوها و وظایف پردازش متنی که به اطلاعات جدید نیاز دارند، مناسب است."
715
+ },
671
716
  "deepseek-r1-distill-llama-70b": {
672
717
  "description": "DeepSeek R1 - مدل بزرگتر و هوشمندتر در مجموعه DeepSeek - به معماری Llama 70B تقطیر شده است. بر اساس آزمون‌های معیار و ارزیابی‌های انسانی، این مدل از Llama 70B اصلی هوشمندتر است، به ویژه در وظایفی که نیاز به دقت ریاضی و واقعی دارند."
673
718
  },
674
719
  "deepseek-r1-distill-llama-8b": {
675
720
  "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
676
721
  },
722
+ "deepseek-r1-distill-qianfan-llama-70b": {
723
+ "description": "این مدل در تاریخ 14 فوریه 2025 برای اولین بار منتشر شد و توسط تیم توسعه مدل بزرگ Qianfan با استفاده از Llama3_70B به عنوان مدل پایه (ساخته شده با متا لاما) تقطیر شده است و داده‌های تقطیر شده همچنین شامل متون Qianfan است."
724
+ },
725
+ "deepseek-r1-distill-qianfan-llama-8b": {
726
+ "description": "این مدل در تاریخ 14 فوریه 2025 برای اولین بار منتشر شد و توسط تیم توسعه مدل بزرگ Qianfan با استفاده از Llama3_8B به عنوان مدل پایه (ساخته شده با متا لاما) تقطیر شده است و داده‌های تقطیر شده همچنین شامل متون Qianfan است."
727
+ },
677
728
  "deepseek-r1-distill-qwen-1.5b": {
678
729
  "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
679
730
  },
@@ -686,6 +737,12 @@
686
737
  "deepseek-r1-distill-qwen-7b": {
687
738
  "description": "مدل‌های سری DeepSeek-R1-Distill از طریق تکنیک تقطیر دانش، نمونه‌های تولید شده توسط DeepSeek-R1 را برای تنظیم دقیق بر روی مدل‌های متن‌باز مانند Qwen و Llama به کار می‌برند."
688
739
  },
740
+ "deepseek-r1-fast-online": {
741
+ "description": "DeepSeek R1 نسخه سریع کامل است که از جستجوی آنلاین زنده پشتیبانی می‌کند و ترکیبی از توانایی‌های قوی 671B پارامتر و سرعت پاسخ‌دهی سریع‌تر است."
742
+ },
743
+ "deepseek-r1-online": {
744
+ "description": "DeepSeek R1 نسخه کامل است که دارای 671B پارامتر است و از جستجوی آنلاین زنده پشتیبانی می‌کند و دارای توانایی‌های درک و تولید قوی‌تری است."
745
+ },
689
746
  "deepseek-reasoner": {
690
747
  "description": "مدل استدلالی ارائه شده توسط DeepSeek. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
691
748
  },
@@ -764,6 +821,9 @@
764
821
  "ernie-4.0-turbo-8k-preview": {
765
822
  "description": "مدل زبان بزرگ فوق‌العاده پرچمدار خود توسعه یافته توسط بایدو، که عملکرد کلی آن بسیار خوب است و به طور گسترده‌ای در زمینه‌های مختلف برای وظایف پیچیده کاربرد دارد؛ از اتصال خودکار به افزونه جستجوی بایدو پشتیبانی می‌کند تا اطلاعات پرسش و پاسخ به روز باشد. نسبت به ERNIE 4.0 در عملکرد بهتر است."
766
823
  },
824
+ "ernie-4.5-8k-preview": {
825
+ "description": "مدل بزرگ 4.5 Ernie یک مدل پایه چندرسانه‌ای نسل جدید است که توسط بایدو به‌طور مستقل توسعه یافته و از طریق مدل‌سازی مشترک چندین حالت به بهینه‌سازی هم‌زمان دست می‌یابد و توانایی درک چندرسانه‌ای فوق‌العاده‌ای دارد؛ دارای توانایی‌های زبانی پیشرفته‌تر، درک، تولید، منطق و حافظه به‌طور کلی بهبود یافته و توانایی‌های حذف توهم، استدلال منطقی و کد به‌طور قابل توجهی افزایش یافته است."
826
+ },
767
827
  "ernie-char-8k": {
768
828
  "description": "مدل زبان بزرگ با کاربرد خاص که توسط بایدو توسعه یافته است و برای کاربردهایی مانند NPCهای بازی، مکالمات خدمات مشتری، و نقش‌آفرینی در مکالمات مناسب است، سبک شخصیت آن واضح‌تر و یکدست‌تر است و توانایی پیروی از دستورات و عملکرد استدلال بهتری دارد."
769
829
  },
@@ -1097,9 +1157,6 @@
1097
1157
  "hunyuan-turbo": {
1098
1158
  "description": "نسخه پیش‌نمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده می‌کند. در مقایسه با hunyuan-pro، کارایی استنتاج سریع‌تر و عملکرد بهتری دارد."
1099
1159
  },
1100
- "hunyuan-turbo-20241120": {
1101
- "description": "نسخه ثابت hunyuan-turbo 20 نوامبر 2024، نسخه‌ای بین hunyuan-turbo و hunyuan-turbo-latest."
1102
- },
1103
1160
  "hunyuan-turbo-20241223": {
1104
1161
  "description": "بهینه‌سازی‌های این نسخه: مقیاس‌دهی دستورات داده، به‌طور قابل توجهی توانایی تعمیم عمومی مدل را افزایش می‌دهد؛ به‌طور قابل توجهی توانایی‌های ریاضی، کدنویسی و استدلال منطقی را بهبود می‌بخشد؛ بهینه‌سازی توانایی‌های درک متن و کلمات مرتبط با آن؛ بهینه‌سازی کیفیت تولید محتوای خلق متن."
1105
1162
  },
@@ -1109,6 +1166,15 @@
1109
1166
  "hunyuan-turbo-vision": {
1110
1167
  "description": "مدل بزرگ زبان بصری نسل جدید Hunyuan، با استفاده از ساختار جدید مدل‌های متخصص ترکیبی (MoE)، در توانایی‌های مربوط به درک تصویر و متن، خلق محتوا، پرسش و پاسخ دانش و تحلیل استدلال نسبت به مدل‌های نسل قبلی به‌طور جامع بهبود یافته است."
1111
1168
  },
1169
+ "hunyuan-turbos-20250226": {
1170
+ "description": "hunyuan-TurboS pv2.1.2 نسخه ثابت پیش‌ساخته با ارتقاء تعداد توکن‌های آموزش؛ بهبود توانایی‌های تفکر در ریاضی/منطق/کد و بهبود تجربه عمومی در زبان‌های چینی و انگلیسی، شامل تولید متن، درک متن، پرسش و پاسخ دانش، گپ و گفت و غیره."
1171
+ },
1172
+ "hunyuan-turbos-20250313": {
1173
+ "description": "سبک یکسان‌سازی مراحل حل مسائل ریاضی، تقویت پرسش و پاسخ چند مرحله‌ای ریاضی. بهینه‌سازی سبک پاسخ‌گویی در تولید متن، حذف طعم AI و افزایش ادبیات."
1174
+ },
1175
+ "hunyuan-turbos-latest": {
1176
+ "description": "hunyuan-TurboS آخرین نسخه مدل بزرگ پرچمدار مختلط است که دارای توانایی تفکر قوی‌تر و تجربه بهتری است."
1177
+ },
1112
1178
  "hunyuan-vision": {
1113
1179
  "description": "جدیدترین مدل چندوجهی هون‌یوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
1114
1180
  },
@@ -23,6 +23,9 @@
23
23
  "cloudflare": {
24
24
  "description": "مدل‌های یادگیری ماشین مبتنی بر GPU بدون سرور را در شبکه جهانی Cloudflare اجرا کنید."
25
25
  },
26
+ "cohere": {
27
+ "description": "Cohere جدیدترین مدل‌های چند زبانه، قابلیت‌های پیشرفته جستجو و فضای کاری هوش مصنوعی سفارشی برای کسب‌وکارهای مدرن را به شما ارائه می‌دهد - همه این‌ها در یک پلتفرم امن یکپارچه شده‌اند."
28
+ },
26
29
  "deepseek": {
27
30
  "description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، توانایی‌های مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینه‌هایی مانند هم‌ترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است."
28
31
  },
@@ -101,6 +104,9 @@
101
104
  "sambanova": {
102
105
  "description": "SambaNova Cloud به توسعه‌دهندگان این امکان را می‌دهد که به راحتی از بهترین مدل‌های متن‌باز استفاده کنند و از سریع‌ترین سرعت استنتاج بهره‌مند شوند."
103
106
  },
107
+ "search1api": {
108
+ "description": "Search1API دسترسی به مجموعه مدل‌های DeepSeek را که می‌توانند به صورت خودکار به اینترنت متصل شوند، ارائه می‌دهد، شامل نسخه استاندارد و نسخه سریع، که از انتخاب مدل با مقیاس‌های مختلف پارامتر پشتیبانی می‌کند."
109
+ },
104
110
  "sensenova": {
105
111
  "description": "سنسنووا، با تکیه بر زیرساخت‌های قوی سنس‌تک، خدمات مدل‌های بزرگ تمام‌پشته‌ای را به‌صورت کارآمد و آسان ارائه می‌دهد."
106
112
  },
@@ -41,7 +41,10 @@
41
41
  "error": {
42
42
  "desc": "Nous sommes désolés, une erreur est survenue lors de l'initialisation de la base de données Pglite. Veuillez cliquer sur le bouton pour réessayer. Si l'erreur persiste après plusieurs tentatives, veuillez <1>soumettre un problème</1>, nous vous aiderons à le résoudre dans les meilleurs délais.",
43
43
  "detail": "Raison de l'erreur : [[{{type}}] {{message}}. Détails ci-dessous :",
44
+ "detailTitle": "Raison de l'erreur",
45
+ "report": "Signaler un problème",
44
46
  "retry": "Réessayer",
47
+ "selfSolve": "Résolution autonome",
45
48
  "title": "Échec de l'initialisation de la base de données"
46
49
  },
47
50
  "initing": {
@@ -80,6 +83,54 @@
80
83
  "button": "Utiliser maintenant",
81
84
  "desc": "Prêt à l'emploi",
82
85
  "title": "Base de données PGlite prête"
86
+ },
87
+ "solve": {
88
+ "backup": {
89
+ "backup": "Sauvegarde",
90
+ "backupSuccess": "Sauvegarde réussie",
91
+ "desc": "Exporter les données clés de la base de données actuelle",
92
+ "export": "Exporter toutes les données",
93
+ "exportDesc": "Les données exportées seront enregistrées au format JSON, pouvant être utilisées pour une restauration ou une analyse ultérieure.",
94
+ "reset": {
95
+ "alert": "Avertissement",
96
+ "alertDesc": "Les opérations suivantes peuvent entraîner une perte de données. Veuillez vous assurer que vous avez sauvegardé les données importantes avant de continuer.",
97
+ "button": "Réinitialiser complètement la base de données (supprimer toutes les données)",
98
+ "confirm": {
99
+ "desc": "Cette opération supprimera toutes les données et ne pourra pas être annulée, confirmez-vous la poursuite ?",
100
+ "title": "Confirmer la réinitialisation de la base de données"
101
+ },
102
+ "desc": "Réinitialiser la base de données en cas de migration irréversible",
103
+ "title": "Réinitialisation de la base de données"
104
+ },
105
+ "restore": "Restaurer",
106
+ "restoreSuccess": "Restauration réussie",
107
+ "title": "Sauvegarde des données"
108
+ },
109
+ "diagnosis": {
110
+ "createdAt": "Date de création",
111
+ "migratedAt": "Date de migration terminée",
112
+ "sql": "SQL de migration",
113
+ "title": "État de la migration"
114
+ },
115
+ "repair": {
116
+ "desc": "Gestion manuelle de l'état de migration",
117
+ "runSQL": "Exécution personnalisée",
118
+ "sql": {
119
+ "clear": "Vider",
120
+ "desc": "Exécuter des instructions SQL personnalisées pour réparer les problèmes de la base de données",
121
+ "markFinished": "Marquer comme terminé",
122
+ "placeholder": "Entrer l'instruction SQL...",
123
+ "result": "Résultat de l'exécution",
124
+ "run": "Exécuter",
125
+ "title": "Exécuteur SQL"
126
+ },
127
+ "title": "Contrôle de migration"
128
+ },
129
+ "tabs": {
130
+ "backup": "Sauvegarde et restauration",
131
+ "diagnosis": "Diagnostic",
132
+ "repair": "Réparation"
133
+ }
83
134
  }
84
135
  },
85
136
  "close": "Fermer",