@lobehub/lobehub 2.0.0-next.233 → 2.0.0-next.235
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/e2e.yml +6 -12
- package/.github/workflows/test.yml +3 -3
- package/CHANGELOG.md +59 -0
- package/CLAUDE.md +1 -1
- package/changelog/v1.json +18 -0
- package/docs/development/basic/feature-development.mdx +4 -5
- package/docs/development/basic/feature-development.zh-CN.mdx +4 -5
- package/e2e/README.md +6 -6
- package/e2e/src/features/community/detail-pages.feature +9 -9
- package/e2e/src/features/community/interactions.feature +13 -13
- package/e2e/src/features/community/smoke.feature +6 -6
- package/e2e/src/steps/agent/conversation-mgmt.steps.ts +196 -25
- package/e2e/src/steps/agent/conversation.steps.ts +58 -0
- package/e2e/src/steps/agent/message-ops.steps.ts +20 -15
- package/e2e/src/steps/community/detail-pages.steps.ts +60 -19
- package/e2e/src/steps/community/interactions.steps.ts +145 -32
- package/e2e/src/steps/hooks.ts +12 -2
- package/locales/ar/components.json +1 -0
- package/locales/ar/file.json +4 -0
- package/locales/ar/models.json +29 -0
- package/locales/ar/setting.json +7 -0
- package/locales/bg-BG/components.json +1 -0
- package/locales/bg-BG/file.json +4 -0
- package/locales/bg-BG/models.json +1 -0
- package/locales/bg-BG/setting.json +7 -0
- package/locales/de-DE/components.json +1 -0
- package/locales/de-DE/file.json +4 -0
- package/locales/de-DE/models.json +29 -0
- package/locales/de-DE/setting.json +7 -0
- package/locales/en-US/common.json +0 -1
- package/locales/en-US/components.json +1 -0
- package/locales/en-US/file.json +4 -0
- package/locales/en-US/models.json +1 -0
- package/locales/en-US/setting.json +3 -0
- package/locales/es-ES/components.json +1 -0
- package/locales/es-ES/file.json +4 -0
- package/locales/es-ES/models.json +43 -0
- package/locales/es-ES/setting.json +7 -0
- package/locales/fa-IR/components.json +1 -0
- package/locales/fa-IR/file.json +4 -0
- package/locales/fa-IR/models.json +54 -0
- package/locales/fa-IR/setting.json +7 -0
- package/locales/fr-FR/components.json +1 -0
- package/locales/fr-FR/file.json +4 -0
- package/locales/fr-FR/models.json +31 -0
- package/locales/fr-FR/setting.json +7 -0
- package/locales/it-IT/components.json +1 -0
- package/locales/it-IT/file.json +4 -0
- package/locales/it-IT/models.json +43 -0
- package/locales/it-IT/setting.json +7 -0
- package/locales/ja-JP/components.json +1 -0
- package/locales/ja-JP/file.json +4 -0
- package/locales/ja-JP/models.json +28 -0
- package/locales/ja-JP/setting.json +7 -0
- package/locales/ko-KR/components.json +1 -0
- package/locales/ko-KR/file.json +4 -0
- package/locales/ko-KR/models.json +37 -0
- package/locales/ko-KR/setting.json +7 -0
- package/locales/nl-NL/components.json +1 -0
- package/locales/nl-NL/file.json +4 -0
- package/locales/nl-NL/models.json +13 -0
- package/locales/nl-NL/setting.json +7 -0
- package/locales/pl-PL/components.json +1 -0
- package/locales/pl-PL/file.json +4 -0
- package/locales/pl-PL/models.json +13 -0
- package/locales/pl-PL/setting.json +7 -0
- package/locales/pt-BR/components.json +1 -0
- package/locales/pt-BR/file.json +4 -0
- package/locales/pt-BR/models.json +29 -0
- package/locales/pt-BR/setting.json +7 -0
- package/locales/ru-RU/components.json +1 -0
- package/locales/ru-RU/file.json +4 -0
- package/locales/ru-RU/models.json +1 -0
- package/locales/ru-RU/setting.json +7 -0
- package/locales/tr-TR/components.json +1 -0
- package/locales/tr-TR/file.json +4 -0
- package/locales/tr-TR/models.json +29 -0
- package/locales/tr-TR/setting.json +7 -0
- package/locales/vi-VN/components.json +1 -0
- package/locales/vi-VN/file.json +4 -0
- package/locales/vi-VN/models.json +1 -0
- package/locales/vi-VN/setting.json +7 -0
- package/locales/zh-CN/file.json +4 -0
- package/locales/zh-CN/models.json +46 -0
- package/locales/zh-CN/setting.json +3 -0
- package/locales/zh-TW/components.json +1 -0
- package/locales/zh-TW/file.json +4 -0
- package/locales/zh-TW/models.json +35 -0
- package/locales/zh-TW/setting.json +7 -0
- package/package.json +5 -5
- package/packages/const/src/index.ts +1 -0
- package/packages/const/src/lobehubSkill.ts +55 -0
- package/packages/types/package.json +1 -1
- package/packages/types/src/files/upload.ts +11 -1
- package/packages/types/src/message/common/tools.ts +1 -1
- package/packages/types/src/serverConfig.ts +1 -0
- package/public/not-compatible.html +1296 -0
- package/src/app/[variants]/(main)/resource/features/FileDetail.tsx +20 -12
- package/src/app/[variants]/(main)/resource/features/modal/FullscreenModal.tsx +2 -4
- package/src/app/[variants]/layout.tsx +50 -1
- package/src/features/ChatInput/ActionBar/Tools/LobehubSkillServerItem.tsx +304 -0
- package/src/features/ChatInput/ActionBar/Tools/useControls.tsx +74 -10
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Inspector/ToolTitle.tsx +9 -0
- package/src/features/FileViewer/Renderer/Code/index.tsx +224 -0
- package/src/features/FileViewer/Renderer/Image/index.tsx +8 -1
- package/src/features/FileViewer/Renderer/PDF/index.tsx +3 -1
- package/src/features/FileViewer/Renderer/PDF/style.ts +2 -1
- package/src/features/FileViewer/index.tsx +135 -24
- package/src/features/PageEditor/EditorCanvas/useSlashItems.tsx +7 -4
- package/src/features/PageEditor/store/initialState.ts +2 -1
- package/src/features/ResourceManager/components/Editor/FileContent.tsx +1 -4
- package/src/features/ResourceManager/components/Editor/FileCopilot.tsx +64 -0
- package/src/features/ResourceManager/components/Editor/index.tsx +98 -31
- package/src/features/ResourceManager/components/Explorer/ItemDropdown/useFileItemDropdown.tsx +3 -2
- package/src/features/ResourceManager/components/Explorer/ListView/ColumnResizeHandle.tsx +119 -0
- package/src/features/ResourceManager/components/Explorer/ListView/ListItem/index.tsx +67 -22
- package/src/features/ResourceManager/components/Explorer/ListView/Skeleton.tsx +46 -11
- package/src/features/ResourceManager/components/Explorer/ListView/index.tsx +140 -81
- package/src/features/ResourceManager/components/Explorer/ToolBar/SortDropdown.tsx +20 -12
- package/src/features/ResourceManager/components/Explorer/ToolBar/ViewSwitcher.tsx +18 -10
- package/src/features/ResourceManager/components/UploadDock/Item.tsx +38 -6
- package/src/features/ResourceManager/components/UploadDock/index.tsx +62 -41
- package/src/features/ResourceManager/index.tsx +1 -0
- package/src/helpers/toolEngineering/index.test.ts +3 -0
- package/src/helpers/toolEngineering/index.ts +12 -1
- package/src/locales/default/file.ts +4 -0
- package/src/locales/default/setting.ts +3 -0
- package/src/server/globalConfig/index.ts +1 -0
- package/src/server/modules/ModelRuntime/index.test.ts +214 -1
- package/src/server/modules/ModelRuntime/index.ts +43 -7
- package/src/server/routers/lambda/_helpers/resolveContext.ts +8 -8
- package/src/server/routers/lambda/agent.ts +1 -1
- package/src/server/routers/lambda/aiModel.ts +1 -1
- package/src/server/routers/lambda/comfyui.ts +1 -1
- package/src/server/routers/lambda/document.ts +44 -0
- package/src/server/routers/lambda/exporter.ts +1 -1
- package/src/server/routers/lambda/image.ts +13 -13
- package/src/server/routers/lambda/klavis.ts +10 -10
- package/src/server/routers/lambda/market/index.ts +6 -6
- package/src/server/routers/lambda/message.ts +2 -2
- package/src/server/routers/lambda/plugin.ts +1 -1
- package/src/server/routers/lambda/ragEval.ts +2 -2
- package/src/server/routers/lambda/topic.ts +3 -3
- package/src/server/routers/lambda/user.ts +10 -10
- package/src/server/routers/lambda/userMemories.ts +6 -6
- package/src/server/routers/tools/market.ts +261 -0
- package/src/server/services/document/index.ts +22 -0
- package/src/services/document/index.ts +4 -0
- package/src/services/upload.ts +22 -2
- package/src/store/chat/slices/plugin/actions/internals.ts +15 -2
- package/src/store/chat/slices/plugin/actions/pluginTypes.ts +104 -0
- package/src/store/file/slices/fileManager/action.test.ts +9 -3
- package/src/store/file/slices/fileManager/action.ts +165 -70
- package/src/store/file/slices/upload/action.ts +3 -0
- package/src/store/global/actions/general.ts +15 -0
- package/src/store/global/initialState.ts +13 -0
- package/src/store/serverConfig/selectors.ts +1 -0
- package/src/store/tool/initialState.ts +11 -2
- package/src/store/tool/selectors/index.ts +1 -0
- package/src/store/tool/selectors/tool.ts +3 -1
- package/src/store/tool/slices/lobehubSkillStore/action.ts +361 -0
- package/src/store/tool/slices/lobehubSkillStore/index.ts +4 -0
- package/src/store/tool/slices/lobehubSkillStore/initialState.ts +24 -0
- package/src/store/tool/slices/lobehubSkillStore/selectors.ts +145 -0
- package/src/store/tool/slices/lobehubSkillStore/types.ts +100 -0
- package/src/store/tool/store.ts +8 -2
- package/vitest.config.mts +1 -0
- package/src/features/FileViewer/Renderer/JavaScript/index.tsx +0 -66
- package/src/features/FileViewer/Renderer/TXT/index.tsx +0 -50
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "Ir a configuración",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "Gestionar proveedor",
|
|
101
101
|
"ModelSwitchPanel.provider": "Proveedor",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "Buscar modelos...",
|
|
102
103
|
"ModelSwitchPanel.title": "Modelo",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "Usar este modelo de:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "Haz clic o arrastra para subir más",
|
package/locales/es-ES/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Importar desde Notion",
|
|
38
38
|
"header.actions.uploadFile": "Subir archivo",
|
|
39
39
|
"header.actions.uploadFolder": "Subir carpeta",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "Creando la estructura de carpetas...",
|
|
40
41
|
"header.newPageButton": "Nueva página",
|
|
41
42
|
"header.uploadButton": "Subir",
|
|
42
43
|
"home.getStarted": "Comenzar",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "Recursos",
|
|
120
121
|
"toggleLeftPanel": "Mostrar/Ocultar panel izquierdo",
|
|
121
122
|
"uploadDock.body.collapse": "Colapsar",
|
|
123
|
+
"uploadDock.body.item.cancel": "Cancelar",
|
|
124
|
+
"uploadDock.body.item.cancelled": "Cancelado",
|
|
122
125
|
"uploadDock.body.item.done": "Subido",
|
|
123
126
|
"uploadDock.body.item.error": "Error al subir, inténtalo de nuevo",
|
|
124
127
|
"uploadDock.body.item.pending": "Preparando para subir...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "Quedan {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "Subiendo los primeros {{count}} archivos, {{remaining}} restantes en la cola",
|
|
128
131
|
"uploadDock.totalCount": "Total: {{count}} elementos",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "Carga cancelada",
|
|
129
133
|
"uploadDock.uploadStatus.error": "Error de subida",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "Esperando para subir",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "Subiendo",
|
|
@@ -413,6 +413,49 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B es una versión destilada de Llama-3.3-70B-Instruct. Como parte de la serie DeepSeek-R1, está ajustado finamente con muestras generadas por DeepSeek-R1 y ofrece un rendimiento sólido en matemáticas, programación y razonamiento.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B es una versión destilada de Qwen2.5-14B y ajustada finamente con 800K muestras seleccionadas generadas por DeepSeek-R1, ofreciendo un razonamiento sólido.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B es una versión destilada de Qwen2.5-32B y ajustada finamente con 800K muestras seleccionadas generadas por DeepSeek-R1, destacando en matemáticas, programación y razonamiento.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B destaca en el uso de herramientas para explorar bases de código, editar múltiples archivos y asistir a agentes de ingeniería de software.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite es un nuevo modelo ligero con respuesta ultrarrápida, que ofrece calidad y latencia de primer nivel.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k es una mejora integral de Doubao-1.5-Pro, con un rendimiento general un 10% superior. Admite una ventana de contexto de 256k y hasta 12k tokens de salida, ofreciendo mayor rendimiento, una ventana más amplia y un gran valor para casos de uso más amplios.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro es un modelo insignia de nueva generación con mejoras en todos los aspectos, sobresaliendo en conocimiento, programación y razonamiento.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo (la versión m incluye razonamiento profundo multimodal nativo) que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Admite una ventana de contexto de 128k y 16k de salida.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Admite una ventana de contexto de 128k y 16k de salida.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Un nuevo modelo visual de razonamiento profundo con mayor capacidad de comprensión y razonamiento multimodal, logrando resultados SOTA en 37 de 59 benchmarks públicos.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS es un modelo de agente enfocado en interfaces gráficas nativas que interactúa fluidamente con interfaces mediante percepción, razonamiento y acción similares a los humanos.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones. Admite una ventana de contexto de 128k y hasta 16k tokens de salida.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
|
|
427
|
+
"doubao-lite-128k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con excelentes resultados en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Admite razonamiento y ajuste fino con una ventana de contexto de 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con excelentes resultados en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Admite razonamiento y ajuste fino con una ventana de contexto de 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash es un modelo multimodal de razonamiento profundo ultrarrápido con TPOT de hasta 10ms. Admite texto y visión, supera al modelo lite anterior en comprensión de texto y se equipara a modelos pro en visión. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de razonamiento profundo con esfuerzo de razonamiento ajustable (Mínimo, Bajo, Medio, Alto), ofreciendo mejor valor y una opción sólida para tareas comunes, con una ventana de contexto de hasta 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 refuerza significativamente el razonamiento, mejorando aún más las habilidades clave en programación, matemáticas y razonamiento lógico respecto a Doubao-1.5-thinking-pro, además de añadir comprensión visual. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision es un modelo visual de razonamiento profundo que ofrece mayor comprensión y razonamiento multimodal para educación, revisión de imágenes, inspección/seguridad y búsqueda de IA con preguntas y respuestas. Admite una ventana de contexto de 256k y hasta 64k tokens de salida.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 es un nuevo modelo multimodal de razonamiento profundo con modos automático, de razonamiento y sin razonamiento. En modo sin razonamiento, supera significativamente a Doubao-1.5-pro/250115. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 posee una capacidad superior de comprensión multimodal y de agentes, admite entrada de texto/imágenes/video y almacenamiento en caché de contexto, ofreciendo un rendimiento destacado en tareas complejas.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code está profundamente optimizado para programación con agentes, admite entradas multimodales (texto/imagen/video) y una ventana de contexto de 256k, es compatible con la API de Anthropic y se adapta a flujos de trabajo de programación, comprensión visual y agentes.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "El modelo de imágenes Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Admite edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
|
|
444
|
+
"emohaa.description": "Emohaa es un modelo de salud mental con capacidades profesionales de asesoramiento para ayudar a los usuarios a comprender problemas emocionales.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B es un modelo ligero de código abierto para implementación local y personalizada.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B es un modelo de código abierto con gran número de parámetros y mayor capacidad de comprensión y generación.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B es el modelo MoE ultra grande de Baidu ERNIE con excelente capacidad de razonamiento.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview es un modelo de vista previa con contexto de 8K para evaluar ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Vista previa de ERNIE 4.5 Turbo 128K con capacidades de nivel de lanzamiento, adecuado para integración y pruebas canarias.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K es un modelo general de alto rendimiento con aumento de búsqueda y uso de herramientas para preguntas y respuestas, programación y escenarios de agentes.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K es una versión de contexto medio para preguntas y respuestas, recuperación de bases de conocimiento y diálogo de múltiples turnos.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Última versión de ERNIE 4.5 Turbo con rendimiento general optimizado, ideal como modelo principal de producción.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview es una vista previa multimodal de 32K para evaluar la capacidad de visión de contexto largo.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K es una versión multimodal de contexto medio-largo para comprensión combinada de documentos largos e imágenes.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest es la versión multimodal más reciente con mejor comprensión y razonamiento imagen-texto.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview es un modelo multimodal de vista previa para comprensión y generación imagen-texto, adecuado para preguntas visuales y comprensión de contenido.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL es un modelo multimodal maduro para comprensión y reconocimiento imagen-texto en producción.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B es un modelo multimodal de código abierto para comprensión y razonamiento imagen-texto.",
|
|
416
459
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
417
460
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
418
461
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "URL del Proxy de API",
|
|
128
128
|
"llm.waitingForMore": "Se <1>planea añadir más modelos</1>, mantente atento",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "Abrir formulario de solicitud de proveedor",
|
|
130
|
+
"marketPublish.forkConfirm.by": "por {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "Confirmar publicación",
|
|
132
|
+
"marketPublish.forkConfirm.description": "Estás a punto de publicar una versión derivada basada en un agente existente de la comunidad. Tu nuevo agente se creará como una entrada separada en el mercado.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "Publicar agente derivado",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "Describe los cambios clave y mejoras en esta versión",
|
|
131
135
|
"marketPublish.modal.changelog.label": "Registro de cambios",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "El registro de cambios no debe exceder los 500 caracteres",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "servidores",
|
|
525
529
|
"tools.klavis.tools": "herramientas",
|
|
526
530
|
"tools.klavis.verifyAuth": "He completado la autenticación",
|
|
531
|
+
"tools.lobehubSkill.authorize": "Autorizar",
|
|
532
|
+
"tools.lobehubSkill.connect": "Conectar",
|
|
533
|
+
"tools.lobehubSkill.error": "Error",
|
|
527
534
|
"tools.notInstalled": "No Instalado",
|
|
528
535
|
"tools.notInstalledWarning": "Esta habilidad no está instalada actualmente, lo que puede afectar la funcionalidad del agente.",
|
|
529
536
|
"tools.plugins.enabled": "Habilitadas: {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "رفتن به تنظیمات",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "مدیریت ارائهدهنده",
|
|
101
101
|
"ModelSwitchPanel.provider": "ارائهدهنده",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "جستجوی مدلها...",
|
|
102
103
|
"ModelSwitchPanel.title": "مدل",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "استفاده از این مدل از:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "برای بارگذاری بیشتر کلیک یا بکشید",
|
package/locales/fa-IR/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "وارد کردن از Notion",
|
|
38
38
|
"header.actions.uploadFile": "بارگذاری فایل",
|
|
39
39
|
"header.actions.uploadFolder": "بارگذاری پوشه",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "در حال ایجاد ساختار پوشه...",
|
|
40
41
|
"header.newPageButton": "صفحه جدید",
|
|
41
42
|
"header.uploadButton": "بارگذاری",
|
|
42
43
|
"home.getStarted": "شروع کنید",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "منابع",
|
|
120
121
|
"toggleLeftPanel": "نمایش/مخفی کردن پنل کناری",
|
|
121
122
|
"uploadDock.body.collapse": "جمع کردن",
|
|
123
|
+
"uploadDock.body.item.cancel": "لغو",
|
|
124
|
+
"uploadDock.body.item.cancelled": "لغو شد",
|
|
122
125
|
"uploadDock.body.item.done": "بارگذاری شد",
|
|
123
126
|
"uploadDock.body.item.error": "بارگذاری ناموفق بود، لطفاً دوباره تلاش کنید",
|
|
124
127
|
"uploadDock.body.item.pending": "در حال آمادهسازی برای بارگذاری...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "زمان باقیمانده: {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "در حال بارگذاری {{count}} فایل اول، {{remaining}} فایل در صف باقی مانده",
|
|
128
131
|
"uploadDock.totalCount": "مجموع {{count}} مورد",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "بارگذاری لغو شد",
|
|
129
133
|
"uploadDock.uploadStatus.error": "خطای بارگذاری",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "در انتظار بارگذاری",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "در حال بارگذاری",
|
|
@@ -458,6 +458,60 @@
|
|
|
458
458
|
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B یک مدل چندوجهی متنباز برای درک و استدلال تصویر-متن است.",
|
|
459
459
|
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking یک مدل پرچمدار بومی تماموجهی است که مدلسازی متن، تصویر، صدا و ویدیو را یکپارچه میکند. این مدل ارتقاهای گستردهای در توانایی برای پرسش و پاسخ پیچیده، تولید محتوا و سناریوهای عامل ارائه میدهد.",
|
|
460
460
|
"ernie-5.0-thinking-preview.description": "پیشنمایش Wenxin 5.0 Thinking، یک مدل پرچمدار بومی تماموجهی با مدلسازی یکپارچه متن، تصویر، صدا و ویدیو. این مدل ارتقاهای گستردهای در توانایی برای پرسش و پاسخ پیچیده، تولید محتوا و سناریوهای عامل ارائه میدهد.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K یک مدل گفتوگوی شخصیتی برای ساخت شخصیتهای IP و چت همراه بلندمدت است.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "پیشنمایش ERNIE Character Fiction 8K یک مدل ساخت شخصیت و داستان برای ارزیابی و آزمایش ویژگیها است.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K یک مدل شخصیتی برای رماننویسی و خلق داستان است که برای تولید داستانهای بلند مناسب است.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit یک مدل ویرایش تصویر است که از پاککردن، بازنقاشی و تولید نسخههای جایگزین پشتیبانی میکند.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K یک مدل سبک عمومی برای پرسشوپاسخ روزمره و تولید محتوا با حساسیت به هزینه است.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K یک مدل سبک و پرکاربرد برای سناریوهای حساس به تأخیر و هزینه است.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K برای رمانهای بلند و داستانهای IP با روایت چندشخصیتی طراحی شده است.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K یک مدل بدون هزینه ورودی/خروجی برای درک متون بلند و آزمایشهای گسترده است.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K یک مدل رایگان و سریع برای چت روزمره و وظایف متنی سبک است.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K یک مدل با ارزش بالا و همزمانی بالا برای خدمات آنلاین گسترده و برنامههای سازمانی است.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
473
|
+
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه میدهد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] یک مدل تولید تصویر با ۱۲ میلیارد پارامتر است که برای خروجی سریع و با کیفیت بالا طراحی شده است.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "یک مدل حرفهای ویرایش تصویر از تیم Qwen که از ویرایشهای معنایی و ظاهری پشتیبانی میکند، متون چینی و انگلیسی را با دقت ویرایش میکند و ویرایشهای با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن میسازد.",
|
|
483
|
+
"fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متن چینی و سبکهای بصری متنوع.",
|
|
484
|
+
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
|
486
|
+
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
487
|
+
"flux-kontext-pro.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged ویژگیهای عمیق بررسیشده در «DEV» را با مزایای سرعت بالای «Schnell» ترکیب میکند و مرزهای عملکرد را گسترش داده و کاربردها را افزایش میدهد.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "تولید تصویر با وضوح فوقالعاده بالا با خروجی ۴ مگاپیکسلی، تولید تصاویر شفاف در ۱۰ ثانیه.",
|
|
490
|
+
"flux-pro-1.1.description": "مدل ارتقاءیافته تولید تصویر حرفهای با کیفیت تصویر عالی و پیروی دقیق از دستورات.",
|
|
491
|
+
"flux-pro.description": "مدل تولید تصویر تجاری سطح بالا با کیفیت تصویر بینظیر و خروجیهای متنوع.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] پیشرفتهترین مدل متنباز چندمرحلهای است که از رقبای مشابه و حتی مدلهای تقطیرنشده قوی مانند Midjourney v6.0 و DALL-E 3 (HD) پیشی میگیرد. این مدل بهخوبی برای حفظ تنوع پیشآموزش تنظیم شده و کیفیت بصری، پیروی از دستورالعمل، تنوع اندازه/نسبت، مدیریت فونت و تنوع خروجی را بهطور قابل توجهی بهبود میبخشد.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell یک مدل تولید تصویر با عملکرد بالا برای خروجیهای سریع و چندسبکی است.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (تنظیمشده) عملکردی پایدار و قابل تنظیم برای وظایف پیچیده ارائه میدهد.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (تنظیمشده) پشتیبانی قوی چندوجهی برای وظایف پیچیده فراهم میکند.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای گوگل است که برای مقیاسپذیری گسترده وظایف طراحی شده است.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 یک مدل چندوجهی کارآمد برای مقیاسپذیری گسترده کاربردها است.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 یک مدل چندوجهی کارآمد است که برای استقرار گسترده طراحی شده است.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 جدیدترین مدل آزمایشی با پیشرفتهای قابل توجه در کاربردهای متنی و چندوجهی است.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B یک مدل چندوجهی کارآمد است که برای استقرار گسترده طراحی شده است.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B یک مدل چندوجهی کارآمد برای مقیاسپذیری گسترده کاربردها است.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 پردازش چندوجهی بهینهشده برای وظایف پیچیده ارائه میدهد.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash جدیدترین مدل چندوجهی هوش مصنوعی گوگل است که از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و پردازش سریع را برای مقیاسپذیری مؤثر در وظایف مختلف فراهم میسازد.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 یک راهکار چندوجهی مقیاسپذیر برای وظایف پیچیده است.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 جدیدترین مدل آماده تولید با خروجی با کیفیت بالاتر، بهویژه برای ریاضی، زمینههای طولانی و وظایف بصری است.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 پردازش چندوجهی قوی با انعطافپذیری بیشتر برای توسعه برنامهها ارائه میدهد.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 آخرین بهینهسازیها را برای پردازش چندوجهی کارآمدتر اعمال میکند.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro از حداکثر ۲ میلیون توکن پشتیبانی میکند و یک مدل چندوجهی میانرده ایدهآل برای وظایف پیچیده است.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash ویژگیهای نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه میدهد.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "مدل آزمایشی Gemini 2.0 Flash با پشتیبانی از تولید تصویر.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگیهای نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه میدهد.",
|
|
461
515
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
462
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
463
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "آدرس پراکسی API",
|
|
128
128
|
"llm.waitingForMore": "مدلهای بیشتری <1>در حال برنامهریزی برای افزودن</1> هستند، با ما همراه باشید",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "فرم درخواست ارائهدهنده را باز کنید",
|
|
130
|
+
"marketPublish.forkConfirm.by": "توسط {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "تأیید انتشار",
|
|
132
|
+
"marketPublish.forkConfirm.description": "شما در حال انتشار نسخهای مشتقشده بر اساس یک عامل موجود از جامعه هستید. عامل جدید شما بهعنوان یک ورودی جداگانه در بازار ایجاد خواهد شد.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "انتشار عامل مشتقشده",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "توضیحی درباره تغییرات و بهبودهای کلیدی در این نسخه ارائه دهید",
|
|
131
135
|
"marketPublish.modal.changelog.label": "تغییرات نسخه",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "تغییرات نسخه نباید بیش از ۵۰۰ کاراکتر باشد",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "سرورها",
|
|
525
529
|
"tools.klavis.tools": "ابزارها",
|
|
526
530
|
"tools.klavis.verifyAuth": "احراز هویت را کامل کردهام",
|
|
531
|
+
"tools.lobehubSkill.authorize": "اعطا مجوز",
|
|
532
|
+
"tools.lobehubSkill.connect": "اتصال",
|
|
533
|
+
"tools.lobehubSkill.error": "خطا",
|
|
527
534
|
"tools.notInstalled": "نصب نشده",
|
|
528
535
|
"tools.notInstalledWarning": "این مهارت در حال حاضر نصب نشده است و ممکن است عملکرد عامل را تحت تأثیر قرار دهد.",
|
|
529
536
|
"tools.plugins.enabled": "فعالشده: {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "Aller aux paramètres",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "Gérer le fournisseur",
|
|
101
101
|
"ModelSwitchPanel.provider": "Fournisseur",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "Rechercher des modèles...",
|
|
102
103
|
"ModelSwitchPanel.title": "Modèle",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "Utiliser ce modèle depuis :",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "Cliquez ou glissez pour téléverser plus",
|
package/locales/fr-FR/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Importer depuis Notion",
|
|
38
38
|
"header.actions.uploadFile": "Importer un fichier",
|
|
39
39
|
"header.actions.uploadFolder": "Importer un dossier",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "Création de la structure des dossiers...",
|
|
40
41
|
"header.newPageButton": "Nouvelle page",
|
|
41
42
|
"header.uploadButton": "Importer",
|
|
42
43
|
"home.getStarted": "Commencer",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "Ressources",
|
|
120
121
|
"toggleLeftPanel": "Afficher/Masquer le panneau gauche",
|
|
121
122
|
"uploadDock.body.collapse": "Réduire",
|
|
123
|
+
"uploadDock.body.item.cancel": "Annuler",
|
|
124
|
+
"uploadDock.body.item.cancelled": "Annulé",
|
|
122
125
|
"uploadDock.body.item.done": "Importé",
|
|
123
126
|
"uploadDock.body.item.error": "Échec de l’importation, veuillez réessayer",
|
|
124
127
|
"uploadDock.body.item.pending": "Préparation à l’importation...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "Temps restant : {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "Importation des {{count}} premiers fichiers, {{remaining}} en attente",
|
|
128
131
|
"uploadDock.totalCount": "Total : {{count}} éléments",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "Téléversement annulé",
|
|
129
133
|
"uploadDock.uploadStatus.error": "Erreur d’importation",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "En attente d’importation",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "Importation en cours",
|
|
@@ -382,6 +382,37 @@
|
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
385
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus est un modèle LLM optimisé pour les terminaux, développé par DeepSeek, spécialement conçu pour les appareils en ligne de commande.",
|
|
386
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 est le modèle de réflexion approfondie correspondant à la version Terminus, conçu pour un raisonnement haute performance.",
|
|
387
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride de DeepSeek, prenant en charge les modes avec ou sans réflexion, et offrant une efficacité de raisonnement supérieure à celle de DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l'utilisation des outils par les agents et leurs performances sur les tâches. Il prend en charge une fenêtre de contexte de 128k et jusqu'à 64k jetons de sortie.",
|
|
388
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 est un modèle de raisonnement de nouvelle génération, amélioré pour le raisonnement complexe et la chaîne de pensée, adapté aux tâches nécessitant une analyse approfondie.",
|
|
389
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduit l'attention clairsemée pour améliorer l'efficacité de l'entraînement et de l'inférence sur les textes longs, à un coût inférieur à celui de deepseek-v3.1.",
|
|
390
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think est un modèle de réflexion approfondie complet, doté d'un raisonnement en chaîne plus puissant.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 est le premier modèle de raisonnement hybride de DeepSeek intégrant la réflexion à l'utilisation d'outils. Il combine une architecture efficace pour économiser les ressources, un apprentissage par renforcement à grande échelle pour améliorer les capacités, et des données synthétiques massives pour renforcer la généralisation. Ses performances rivalisent avec celles de GPT-5-High, tout en réduisant considérablement la longueur des sorties, les coûts de calcul et le temps d'attente des utilisateurs.",
|
|
392
|
+
"deepseek-v3.description": "DeepSeek-V3 est un puissant modèle MoE avec 671 milliards de paramètres au total et 37 milliards actifs par jeton.",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small est une version multimodale légère, conçue pour les environnements à ressources limitées et les cas d'utilisation à forte concurrence.",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 est un modèle multimodal pour la compréhension image-texte et les questions-réponses visuelles de précision.",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 est le modèle de raisonnement hybride à long contexte de DeepSeek, prenant en charge les modes de réflexion mixtes et l'intégration d'outils.",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3 est le modèle de raisonnement hybride haute performance de DeepSeek, conçu pour les tâches complexes et l'intégration d'outils.",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 est une variante mise à jour axée sur l'ouverture et un raisonnement plus approfondi.",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour en accroître la précision.",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B est un LLM distillé basé sur Llama 3.3 70B, affiné à l'aide des sorties de DeepSeek R1 pour atteindre des performances comparables aux modèles de pointe.",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B est un LLM distillé basé sur Llama-3.1-8B-Instruct, entraîné à partir des sorties de DeepSeek R1.",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B est un LLM distillé basé sur Qwen 2.5 14B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Résultats clés :\nAIME 2024 pass@1 : 69,7\nMATH-500 pass@1 : 93,9\nCodeForces Rating : 1481\nL'affinage avec les sorties de DeepSeek R1 permet d'obtenir des performances compétitives face aux modèles de pointe plus volumineux.",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B est un LLM distillé basé sur Qwen 2.5 32B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Résultats clés :\nAIME 2024 pass@1 : 72,6\nMATH-500 pass@1 : 94,3\nCodeForces Rating : 1691\nL'affinage avec les sorties de DeepSeek R1 permet d'obtenir des performances compétitives face aux modèles de pointe plus volumineux.",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1 a été mis à jour vers DeepSeek-R1-0528. Grâce à une puissance de calcul accrue et à des optimisations algorithmiques post-entraînement, il améliore considérablement la profondeur et la capacité de raisonnement. Il offre d'excellentes performances en mathématiques, programmation et logique générale, rivalisant avec des leaders comme o3 et Gemini 2.5 Pro.",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1 est le dernier modèle open source publié par l'équipe DeepSeek, avec des performances de raisonnement très solides, notamment en mathématiques, en programmation et en logique, comparables à OpenAI o1.",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour en accroître la précision.",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) est le modèle expérimental de raisonnement de DeepSeek, adapté aux tâches de raisonnement à haute complexité.",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3.",
|
|
410
|
+
"deepseek/deepseek-v3.description": "Un LLM polyvalent rapide avec des capacités de raisonnement renforcées.",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 marque une avancée majeure en vitesse de raisonnement par rapport aux modèles précédents. Il se classe premier parmi les modèles open source et rivalise avec les modèles propriétaires les plus avancés. DeepSeek-V3 adopte l'attention latente multi-tête (MLA) et l'architecture DeepSeekMoE, toutes deux validées dans DeepSeek-V2. Il introduit également une stratégie auxiliaire sans perte pour l'équilibrage de charge et un objectif d'entraînement à prédiction multi-jetons pour des performances accrues.",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1 est un modèle de raisonnement basé sur l'apprentissage par renforcement, conçu pour résoudre les problèmes de répétition et de lisibilité. Avant l'étape RL, il utilise des données de démarrage à froid pour améliorer encore les performances de raisonnement. Il rivalise avec OpenAI-o1 en mathématiques, programmation et logique, grâce à un entraînement soigneusement conçu qui améliore les résultats globaux.",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B est distillé à partir de Llama-3.3-70B-Instruct. Faisant partie de la série DeepSeek-R1, il est affiné sur des échantillons générés par DeepSeek-R1 et offre d'excellentes performances en mathématiques, programmation et raisonnement.",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B est distillé à partir de Qwen2.5-14B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, offrant un raisonnement solide.",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, excellant en mathématiques, programmation et raisonnement.",
|
|
385
416
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
386
417
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
387
418
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "URL du proxy API",
|
|
128
128
|
"llm.waitingForMore": "D'autres modèles <1>seront ajoutés prochainement</1>, restez à l'écoute",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "Ouvrir le formulaire de demande de fournisseur",
|
|
130
|
+
"marketPublish.forkConfirm.by": "par {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "Confirmer la publication",
|
|
132
|
+
"marketPublish.forkConfirm.description": "Vous êtes sur le point de publier une version dérivée basée sur un agent existant de la communauté. Votre nouvel agent sera créé comme une entrée distincte dans la place de marché.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "Publier un agent dérivé",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "Décrivez les principales modifications et améliorations de cette version",
|
|
131
135
|
"marketPublish.modal.changelog.label": "Journal des modifications",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "Le journal des modifications ne doit pas dépasser 500 caractères",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "serveurs",
|
|
525
529
|
"tools.klavis.tools": "outils",
|
|
526
530
|
"tools.klavis.verifyAuth": "J’ai terminé l’authentification",
|
|
531
|
+
"tools.lobehubSkill.authorize": "Autoriser",
|
|
532
|
+
"tools.lobehubSkill.connect": "Connecter",
|
|
533
|
+
"tools.lobehubSkill.error": "Erreur",
|
|
527
534
|
"tools.notInstalled": "Non installé",
|
|
528
535
|
"tools.notInstalledWarning": "Cette compétence n’est pas installée actuellement, ce qui peut affecter le fonctionnement de l’agent.",
|
|
529
536
|
"tools.plugins.enabled": "Activées : {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "Vai alle impostazioni",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "Gestisci Fornitore",
|
|
101
101
|
"ModelSwitchPanel.provider": "Provider",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "Cerca modelli...",
|
|
102
103
|
"ModelSwitchPanel.title": "Modello",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "Usa questo modello da:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "Clicca o trascina per caricare altri",
|
package/locales/it-IT/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Importa da Notion",
|
|
38
38
|
"header.actions.uploadFile": "Carica file",
|
|
39
39
|
"header.actions.uploadFolder": "Carica cartella",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "Creazione della struttura delle cartelle in corso...",
|
|
40
41
|
"header.newPageButton": "Nuova pagina",
|
|
41
42
|
"header.uploadButton": "Carica",
|
|
42
43
|
"home.getStarted": "Inizia",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "Risorse",
|
|
120
121
|
"toggleLeftPanel": "Mostra/Nascondi pannello sinistro",
|
|
121
122
|
"uploadDock.body.collapse": "Comprimi",
|
|
123
|
+
"uploadDock.body.item.cancel": "Annulla",
|
|
124
|
+
"uploadDock.body.item.cancelled": "Annullato",
|
|
122
125
|
"uploadDock.body.item.done": "Caricato",
|
|
123
126
|
"uploadDock.body.item.error": "Caricamento fallito, riprova",
|
|
124
127
|
"uploadDock.body.item.pending": "Preparazione al caricamento...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "Tempo rimanente {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "Caricamento dei primi {{count}} file, {{remaining}} in coda",
|
|
128
131
|
"uploadDock.totalCount": "Totale {{count}} elementi",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "Caricamento annullato",
|
|
129
133
|
"uploadDock.uploadStatus.error": "Errore di caricamento",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "In attesa di caricamento",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "Caricamento in corso",
|
|
@@ -413,6 +413,49 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B è distillato da Llama-3.3-70B-Instruct. Fa parte della serie DeepSeek-R1, è ottimizzato su campioni generati da DeepSeek-R1 e offre prestazioni elevate in matematica, programmazione e ragionamento.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B è distillato da Qwen2.5-14B e ottimizzato su 800.000 campioni curati generati da DeepSeek-R1, offrendo un ragionamento solido.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B è distillato da Qwen2.5-32B e ottimizzato su 800.000 campioni curati generati da DeepSeek-R1, eccellendo in matematica, programmazione e ragionamento.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B eccelle nell'utilizzo di strumenti per esplorare basi di codice, modificare più file e supportare agenti di ingegneria del software.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite è un nuovo modello leggero con risposta ultra-rapida, che offre qualità e latenza di livello superiore.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k è un aggiornamento completo di Doubao-1.5-Pro, con un miglioramento delle prestazioni complessive del 10%. Supporta una finestra contestuale di 256k e fino a 12k token in output, offrendo prestazioni superiori, una finestra più ampia e un ottimo rapporto qualità-prezzo per casi d'uso più ampi.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro è un modello di punta di nuova generazione con miglioramenti su tutta la linea, eccellente in conoscenza, programmazione e ragionamento.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 è un nuovo modello di ragionamento profondo (la versione m include ragionamento profondo multimodale nativo) che eccelle in matematica, programmazione, ragionamento scientifico e compiti generali come la scrittura creativa. Raggiunge o si avvicina ai migliori risultati nei benchmark come AIME 2024, Codeforces e GPQA. Supporta una finestra contestuale di 128k e 16k token in output.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 è un nuovo modello di ragionamento profondo che eccelle in matematica, programmazione, ragionamento scientifico e compiti generali come la scrittura creativa. Raggiunge o si avvicina ai migliori risultati nei benchmark come AIME 2024, Codeforces e GPQA. Supporta una finestra contestuale di 128k e 16k token in output.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Un nuovo modello visivo di ragionamento profondo con una comprensione e un ragionamento multimodale più avanzati, che raggiunge risultati SOTA in 37 su 59 benchmark pubblici.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS è un modello agente nativo focalizzato sulle interfacce grafiche, che interagisce in modo fluido con le interfacce attraverso percezione, ragionamento e azione simili a quelle umane.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni. Supporta una finestra contestuale di 128k e fino a 16k token in output.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.",
|
|
427
|
+
"doubao-lite-128k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash è un modello multimodale di ragionamento profondo ultra-rapido con TPOT fino a 10ms. Supporta testo e visione, supera il precedente modello lite nella comprensione del testo e si equipara ai modelli pro concorrenti nella visione. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite è un nuovo modello multimodale di ragionamento profondo con sforzo di ragionamento regolabile (Minimo, Basso, Medio, Alto), che offre un miglior rapporto qualità-prezzo ed è una scelta solida per compiti comuni, con una finestra contestuale fino a 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 potenzia significativamente il ragionamento, migliorando ulteriormente le capacità fondamentali in programmazione, matematica e logica rispetto a Doubao-1.5-thinking-pro, aggiungendo anche la comprensione visiva. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision è un modello visivo di ragionamento profondo che offre una comprensione e un ragionamento multimodale più forti per l'istruzione, la revisione di immagini, l'ispezione/sicurezza e la ricerca AI con domande e risposte. Supporta una finestra contestuale di 256k e fino a 64k token in output.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 è un nuovo modello multimodale di ragionamento profondo con modalità auto, thinking e non-thinking. In modalità non-thinking, supera significativamente Doubao-1.5-pro/250115. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 ha capacità multimodali e agentiche più avanzate, supporta input di testo/immagini/video e caching del contesto, offrendo prestazioni superiori in compiti complessi.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code è ottimizzato in profondità per la programmazione agentica, supporta input multimodali (testo/immagine/video) e una finestra contestuale di 256k, è compatibile con l'API Anthropic ed è adatto a flussi di lavoro di programmazione, comprensione visiva e agenti.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Il modello di immagini Doubao di ByteDance Seed supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Supporta l'editing di immagini guidato da testo, con dimensioni di output tra 512 e 1536 sul lato lungo.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.",
|
|
444
|
+
"emohaa.description": "Emohaa è un modello per la salute mentale con capacità di consulenza professionale per aiutare gli utenti a comprendere le problematiche emotive.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B è un modello open-source leggero per implementazioni locali e personalizzate.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B è un modello open-source con un numero elevato di parametri e una maggiore capacità di comprensione e generazione.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B è il modello MoE ultra-large di Baidu ERNIE con eccellenti capacità di ragionamento.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview è un modello di anteprima con finestra contestuale da 8K per la valutazione di ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Anteprima di ERNIE 4.5 Turbo 128K con capacità di livello release, adatto per integrazione e test canary.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K è un modello generale ad alte prestazioni con supporto alla ricerca e chiamata di strumenti per QA, programmazione e scenari agentici.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K è una versione con contesto medio per QA, recupero da base di conoscenza e dialoghi multi-turno.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Ultima versione di ERNIE 4.5 Turbo con prestazioni ottimizzate, ideale come modello principale in produzione.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview è un modello multimodale di anteprima da 32K per valutare la capacità visiva su contesti lunghi.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K è una versione multimodale medio-lunga per la comprensione combinata di documenti lunghi e immagini.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest è la versione multimodale più recente con migliorata comprensione e ragionamento immagine-testo.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview è un modello multimodale di anteprima per comprensione e generazione immagine-testo, adatto a QA visivo e comprensione dei contenuti.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL è un modello multimodale maturo per la comprensione e il riconoscimento immagine-testo in produzione.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B è un modello multimodale open-source per la comprensione e il ragionamento immagine-testo.",
|
|
416
459
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
417
460
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
418
461
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "URL Proxy API",
|
|
128
128
|
"llm.waitingForMore": "Altri modelli <1>in arrivo</1>, resta aggiornato",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "Apri il modulo di richiesta Fornitore",
|
|
130
|
+
"marketPublish.forkConfirm.by": "di {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "Conferma Pubblicazione",
|
|
132
|
+
"marketPublish.forkConfirm.description": "Stai per pubblicare una versione derivata basata su un agente esistente della community. Il tuo nuovo agente verrà creato come una voce separata nel marketplace.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "Pubblica Agente Derivato",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "Descrivi i principali cambiamenti e miglioramenti di questa versione",
|
|
131
135
|
"marketPublish.modal.changelog.label": "Registro modifiche",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "Il registro modifiche non può superare i 500 caratteri",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "server",
|
|
525
529
|
"tools.klavis.tools": "strumenti",
|
|
526
530
|
"tools.klavis.verifyAuth": "Ho completato l'autenticazione",
|
|
531
|
+
"tools.lobehubSkill.authorize": "Autorizza",
|
|
532
|
+
"tools.lobehubSkill.connect": "Connetti",
|
|
533
|
+
"tools.lobehubSkill.error": "Errore",
|
|
527
534
|
"tools.notInstalled": "Non Installato",
|
|
528
535
|
"tools.notInstalledWarning": "Questa competenza non è attualmente installata, il che potrebbe influire sulla funzionalità dell'agente.",
|
|
529
536
|
"tools.plugins.enabled": "Abilitati: {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "設定に移動",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "プロバイダーを管理",
|
|
101
101
|
"ModelSwitchPanel.provider": "プロバイダー",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "モデルを検索...",
|
|
102
103
|
"ModelSwitchPanel.title": "モデル",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "このモデルの提供元:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "クリックまたはドラッグしてさらにアップロード",
|
package/locales/ja-JP/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Notion コンテンツをインポート",
|
|
38
38
|
"header.actions.uploadFile": "ファイルをアップロード",
|
|
39
39
|
"header.actions.uploadFolder": "フォルダーをアップロード",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "フォルダー構造を作成しています...",
|
|
40
41
|
"header.newPageButton": "新しいドキュメントを作成",
|
|
41
42
|
"header.uploadButton": "アップロード",
|
|
42
43
|
"home.getStarted": "はじめに",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "リソース",
|
|
120
121
|
"toggleLeftPanel": "左パネルの表示/非表示を切り替え",
|
|
121
122
|
"uploadDock.body.collapse": "折りたたむ",
|
|
123
|
+
"uploadDock.body.item.cancel": "キャンセル",
|
|
124
|
+
"uploadDock.body.item.cancelled": "キャンセルされました",
|
|
122
125
|
"uploadDock.body.item.done": "アップロード完了",
|
|
123
126
|
"uploadDock.body.item.error": "アップロード失敗、再試行してください",
|
|
124
127
|
"uploadDock.body.item.pending": "アップロード準備中...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "残り {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "最初の {{count}} 件のファイルをアップロード中、残りの {{remaining}} 件は順番待ちです",
|
|
128
131
|
"uploadDock.totalCount": "合計 {{count}} 件",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "アップロードがキャンセルされました",
|
|
129
133
|
"uploadDock.uploadStatus.error": "アップロードエラー",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "アップロード待機中",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "アップロード中",
|
|
@@ -414,6 +414,34 @@
|
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bから蒸留され、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされ、強力な推論能力を発揮します。",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32Bは、Qwen2.5-32Bから蒸留され、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされ、数学、コーディング、推論において卓越した性能を発揮します。",
|
|
416
416
|
"devstral-2:123b.description": "Devstral 2 123B は、ツールを活用してコードベースを探索し、複数ファイルを編集し、ソフトウェアエンジニアリングエージェントを支援することに優れています。",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite は、超高速応答を実現する新しい軽量モデルで、最高水準の品質と低遅延を提供します。",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k は Doubao-1.5-Pro の包括的なアップグレード版で、全体的な性能が10%向上しています。256kのコンテキストウィンドウと最大12kの出力トークンに対応し、より高性能で広範なユースケースに対応する価値の高いモデルです。",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro は次世代のフラッグシップモデルで、知識、コーディング、推論の各分野で優れた性能を発揮します。",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 は新しい深層推論モデルで、mバージョンはネイティブなマルチモーダル深層推論を含みます。数学、コーディング、科学的推論、創造的な文章作成などの一般的なタスクに優れ、AIME 2024、Codeforces、GPQA などのベンチマークで最高水準の結果を達成または接近しています。128kのコンテキストウィンドウと16kの出力に対応します。",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 は新しい深層推論モデルで、数学、コーディング、科学的推論、創造的な文章作成などの一般的なタスクに優れています。AIME 2024、Codeforces、GPQA などのベンチマークで最高水準の結果を達成または接近しています。128kのコンテキストウィンドウと16kの出力に対応します。",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "新しい視覚的深層推論モデルで、マルチモーダルの理解と推論能力が強化されており、59の公開ベンチマーク中37でSOTA(最先端)結果を達成しています。",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS は、ネイティブなGUI操作に特化したエージェントモデルで、人間のような知覚・推論・行動を通じてインターフェースとシームレスに連携します。",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。128kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。",
|
|
427
|
+
"doubao-lite-128k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。128kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
428
|
+
"doubao-lite-32k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
429
|
+
"doubao-lite-4k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。4kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
430
|
+
"doubao-pro-256k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。256kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
431
|
+
"doubao-pro-32k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash は、TPOTが10msと非常に低い超高速マルチモーダル深層推論モデルです。テキストと画像の両方に対応し、テキスト理解では従来のliteモデルを上回り、視覚では競合のproモデルに匹敵します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite は、新しいマルチモーダル深層推論モデルで、推論の強度(最小、低、中、高)を調整可能です。一般的なタスクにおいて高いコストパフォーマンスを発揮し、最大256kのコンテキストウィンドウに対応します。",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking は、Doubao-1.5-thinking-pro に比べてコーディング、数学、論理推論の中核能力をさらに強化し、視覚理解も追加されています。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision は、教育、画像レビュー、検査・セキュリティ、AI検索QAなどにおいて、より強力なマルチモーダル理解と推論を提供する視覚的深層推論モデルです。256kのコンテキストウィンドウと最大64kの出力トークンに対応します。",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 は、自動、思考、非思考モードを備えた新しいマルチモーダル深層推論モデルです。非思考モードでは、Doubao-1.5-pro/250115 を大きく上回る性能を発揮します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 は、より強力なマルチモーダル理解能力とエージェント機能を備え、テキスト/画像/動画入力およびコンテキストキャッシュに対応し、複雑なタスクにおいて優れた性能を発揮します。",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code は、エージェント型コーディングに最適化されたモデルで、マルチモーダル入力(テキスト/画像/動画)と256kのコンテキストウィンドウに対応し、Anthropic APIと互換性があります。コーディング、視覚理解、エージェントワークフローに適しています。",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed の Doubao 画像モデルは、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストによる画像編集をサポートし、出力サイズは長辺512〜1536の範囲に対応します。",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
|
|
444
|
+
"emohaa.description": "Emohaa は、専門的なカウンセリング能力を備えたメンタルヘルスモデルで、ユーザーが感情的な問題を理解するのを支援します。",
|
|
417
445
|
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
|
418
446
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
|
|
419
447
|
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
|