@lobehub/lobehub 2.0.0-next.241 → 2.0.0-next.242
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/test.yml +13 -5
- package/CHANGELOG.md +25 -0
- package/apps/desktop/build/Icon-beta.Assets.car +0 -0
- package/apps/desktop/build/Icon-beta.icns +0 -0
- package/apps/desktop/build/icon-beta.ico +0 -0
- package/apps/desktop/build/icon-beta.png +0 -0
- package/changelog/v1.json +5 -0
- package/locales/ar/models.json +48 -7
- package/locales/ar/plugin.json +9 -0
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/models.json +35 -7
- package/locales/bg-BG/plugin.json +9 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/models.json +26 -6
- package/locales/de-DE/plugin.json +9 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/oauth.json +0 -1
- package/locales/en-US/providers.json +1 -0
- package/locales/en-US/subscription.json +2 -2
- package/locales/es-ES/models.json +42 -7
- package/locales/es-ES/plugin.json +9 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/models.json +52 -10
- package/locales/fa-IR/plugin.json +9 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/plugin.json +9 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/models.json +42 -7
- package/locales/it-IT/plugin.json +9 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/models.json +35 -6
- package/locales/ja-JP/plugin.json +9 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/models.json +28 -7
- package/locales/ko-KR/plugin.json +9 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/models.json +35 -6
- package/locales/nl-NL/plugin.json +9 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/models.json +36 -7
- package/locales/pl-PL/plugin.json +9 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/models.json +35 -6
- package/locales/pt-BR/plugin.json +9 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/models.json +35 -7
- package/locales/ru-RU/plugin.json +9 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/models.json +5 -7
- package/locales/tr-TR/plugin.json +9 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/plugin.json +9 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/models.json +48 -6
- package/locales/zh-CN/oauth.json +0 -1
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-CN/subscription.json +1 -1
- package/locales/zh-TW/models.json +10 -10
- package/locales/zh-TW/plugin.json +9 -0
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +1 -1
- package/src/locales/default/subscription.ts +2 -3
- package/src/server/services/memory/userMemory/extract.ts +46 -6
package/locales/en-US/oauth.json
CHANGED
|
@@ -32,6 +32,5 @@
|
|
|
32
32
|
"login.title": "Login to {{clientName}}",
|
|
33
33
|
"login.userWelcome": "Welcome back, ",
|
|
34
34
|
"success.subTitle": "You have successfully authorized the application to access your account. You may now close this page.",
|
|
35
|
-
"success.subTitleWithCountdown": "Authorization successful. Auto-closing in {{countdown}}s...",
|
|
36
35
|
"success.title": "Authorization Successful"
|
|
37
36
|
}
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
32
33
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
34
35
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|
|
@@ -115,9 +115,9 @@
|
|
|
115
115
|
"limitation.limited.advanceFeature": "Upgrade to enjoy premium features:",
|
|
116
116
|
"limitation.limited.desc": "Your {{plan}} computing credits have been exhausted. Upgrade now to get more credits.",
|
|
117
117
|
"limitation.limited.descUltimate": "Your {{plan}} computing credits have been exhausted. Please top up credits to continue.",
|
|
118
|
-
"limitation.limited.referralTip": "Invite
|
|
118
|
+
"limitation.limited.referralTip": "Invite friends, both get {{reward}}M",
|
|
119
119
|
"limitation.limited.title": "Computing Credits Exhausted",
|
|
120
|
-
"limitation.limited.topup": "Top
|
|
120
|
+
"limitation.limited.topup": "Top-Up Credits",
|
|
121
121
|
"limitation.limited.upgrade": "Upgrade to Higher Plan",
|
|
122
122
|
"limitation.providers.lock.addNew": "Subscribe now to create custom AI providers",
|
|
123
123
|
"limitation.providers.lock.enableProvider": "Subscribe now to enable this AI provider",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en muchas evaluaciones.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En evaluaciones públicas alcanza niveles similares a GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
|
|
379
379
|
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
|
|
@@ -456,6 +456,41 @@
|
|
|
456
456
|
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview es un modelo multimodal de vista previa para comprensión y generación imagen-texto, adecuado para preguntas visuales y comprensión de contenido.",
|
|
457
457
|
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL es un modelo multimodal maduro para comprensión y reconocimiento imagen-texto en producción.",
|
|
458
458
|
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B es un modelo multimodal de código abierto para comprensión y razonamiento imagen-texto.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking es un modelo insignia nativo multimodal con modelado unificado de texto, imagen, audio y video. Ofrece mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview es un modelo insignia nativo multimodal con modelado unificado de texto, imagen, audio y video. Ofrece mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K es un modelo de diálogo con personalidad para la creación de personajes de propiedad intelectual y conversaciones de compañía a largo plazo.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview es un modelo preliminar para la creación de personajes y tramas, diseñado para evaluación y pruebas.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K es un modelo de personajes para novelas y creación de tramas, ideal para generación de historias extensas.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit es un modelo de edición de imágenes que permite borrar, repintar y generar variantes.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K es un modelo general ligero para preguntas y respuestas diarias y generación de contenido con sensibilidad al costo.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas extensas y tramas de propiedad intelectual con narrativas de múltiples personajes.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K es un modelo sin costo de entrada/salida para comprensión de textos largos y pruebas a gran escala.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K es un modelo gratuito y rápido para chat diario y tareas ligeras de texto.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] es un modelo de generación de imágenes con 12 mil millones de parámetros, diseñado para una salida rápida y de alta calidad.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Modelo potente de generación de imágenes del equipo Qwen con fuerte representación de texto en chino y estilos visuales diversos.",
|
|
484
|
+
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
|
|
486
|
+
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
487
|
+
"flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
|
|
490
|
+
"flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
|
|
491
|
+
"flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
|
|
459
494
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
460
495
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
461
496
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Sin resultados",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Sistema Local",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "Copiar",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "Creando documento...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "Editar",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "Expandir",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "Crear documento",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "Eliminar documento",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "Obtener documento",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "Actualizar documento",
|
|
103
|
+
"builtins.lobe-notebook.title": "Cuaderno",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Actualizar nodos en lote",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar capturas",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "Convertir en lista",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
|
|
30
30
|
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
|
31
31
|
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
|
|
32
33
|
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
|
|
34
35
|
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است که مهارتهای بهبودیافتهای دارد و در بسیاری از معیارها از مدل پرچمدار قبلی Claude 3 Opus پیشی میگیرد.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخهای تقریباً فوری یا تفکر گسترشیافته با کنترل دقیق را پشتیبانی میکند.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی تفکر گسترده ارائه میشود.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخهای تقریباً فوری یا تفکر گامبهگام گسترشیافته با کنترل دقیق برای کاربران API ارائه میدهد.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعالسازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قویای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایهگذاری بصری عملکرد درخشانی دارد.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسشوپاسخ روزمره و وظایف عاملها برقرار میکند. در معیارهای عمومی به سطح GPT-5 میرسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام میکند و در ارزیابیهای عاملهای متنباز پیشتاز است.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
|
|
379
379
|
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking مدلی برای استدلال عمیق است که پیش از تولید خروجی، زنجیرهای از تفکر ایجاد میکند تا دقت را افزایش دهد. این مدل در رقابتهای برتر نتایج عالی کسب کرده و استدلالی همتراز با Gemini-3.0-Pro دارد.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
473
473
|
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط تیم Seed در ByteDance، ورودیهای متنی و تصویری را برای تولید تصاویر باکیفیت و قابل کنترل از طریق دستورات پشتیبانی میکند.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
483
|
-
"fal-ai/qwen-image.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که ویرایشهای معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر را پشتیبانی میکند.",
|
|
483
|
+
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبکهای بصری متنوع.",
|
|
484
484
|
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
|
486
486
|
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
@@ -512,6 +512,48 @@
|
|
|
512
512
|
"gemini-2.0-flash-lite-001.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
513
513
|
"gemini-2.0-flash-lite.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
514
514
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگیهای نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه میدهد.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهای را ممکن میسازد.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهای را ممکن میسازد.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهای را ممکن میسازد.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمهای را ممکن میسازد.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیشنمایش Gemini 2.5 Flash-Lite کوچکترین و مقرونبهصرفهترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "نسخه پیشنمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite کوچکترین و مقرونبهصرفهترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview مقرونبهصرفهترین مدل گوگل با قابلیتهای کامل است.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "نسخه پیشنمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash مقرونبهصرفهترین مدل گوگل با قابلیتهای کامل است.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و میتواند مجموعهدادههای بزرگ، پایگاههای کد و اسناد را با زمینه طولانی تحلیل کند.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچمدار مدلهای استدلالی گوگل است که از زمینههای طولانی برای انجام وظایف پیچیده پشتیبانی میکند.",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحیشده برای سرعت است که هوش پیشرفته را با جستجوی عالی ترکیب میکند.",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتوگوی چندوجهی نیز پشتیبانی میکند.",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنیتر و تعامل عمیقتری را بر پایه استدلال پیشرفته ارائه میدهد.",
|
|
533
|
+
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
|
|
534
|
+
"gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
|
|
535
|
+
"gemini-pro-latest.description": "آخرین نسخه منتشرشده از Gemini Pro",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B برای وظایف کوچک تا متوسط مقرونبهصرفه است.",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B برای وظایف خاص و یکپارچهسازی ابزارها بهینهسازی شده است.",
|
|
538
|
+
"gemma2.description": "Gemma 2 مدل کارآمد گوگل است که از برنامههای کوچک تا پردازش دادههای پیچیده را پوشش میدهد.",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 مدل کارآمد گوگل است که از برنامههای کوچک تا پردازش دادههای پیچیده را پوشش میدهد.",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 مدل کارآمد گوگل است که از برنامههای کوچک تا پردازش دادههای پیچیده را پوشش میدهد.",
|
|
541
|
+
"generalv3.5.description": "Spark Max کاملترین نسخه است که از جستجوی وب و افزونههای داخلی متعددی پشتیبانی میکند. قابلیتهای اصلی آن بهینهسازی شدهاند و نقشهای سیستمی و فراخوانی توابع عملکردی عالی در سناریوهای پیچیده ارائه میدهند.",
|
|
542
|
+
"generalv3.description": "Spark Pro یک مدل LLM با عملکرد بالا است که برای حوزههای حرفهای بهینهسازی شده و بر ریاضی، برنامهنویسی، سلامت و آموزش تمرکز دارد. این مدل از جستجوی وب و افزونههای داخلی مانند آبوهوا و تاریخ پشتیبانی میکند و در پرسشوپاسخ دانش پیچیده، درک زبان و تولید متن پیشرفته عملکرد قوی و کارآمدی دارد و گزینهای ایدهآل برای کاربردهای حرفهای است.",
|
|
543
|
+
"glm-4-0520.description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع با عملکرد عالی طراحی شده است.",
|
|
544
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 یک مدل عمومی GLM است که از تولید و درک متن چندوظیفهای پشتیبانی میکند.",
|
|
545
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat در حوزههای معناشناسی، ریاضی، استدلال، کدنویسی و دانش عملکرد قوی دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متنهای طولانی پشتیبانی میکند و از ۲۶ زبان از جمله ژاپنی، کرهای و آلمانی پشتیبانی میکند.",
|
|
546
|
+
"glm-4-air-250414.description": "GLM-4-Air گزینهای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
|
|
547
|
+
"glm-4-air.description": "GLM-4-Air گزینهای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
|
|
548
|
+
"glm-4-airx.description": "GLM-4-AirX نسخهای کارآمدتر از GLM-4-Air است که تا ۲.۶ برابر استدلال سریعتری دارد.",
|
|
549
|
+
"glm-4-alltools.description": "GLM-4-AllTools یک مدل عامل چندمنظوره است که برای برنامهریزی دستورالعملهای پیچیده و استفاده از ابزارهایی مانند مرور وب، توضیح کد و تولید متن بهینهسازی شده و برای اجرای چندوظیفهای مناسب است.",
|
|
550
|
+
"glm-4-flash-250414.description": "GLM-4-Flash برای وظایف ساده ایدهآل است: سریعترین و رایگان.",
|
|
551
|
+
"glm-4-flash.description": "GLM-4-Flash برای وظایف ساده ایدهآل است: سریعترین و رایگان.",
|
|
552
|
+
"glm-4-flashx.description": "GLM-4-FlashX نسخه پیشرفته Flash با استدلال فوقالعاده سریع است.",
|
|
553
|
+
"glm-4-long.description": "GLM-4-Long از ورودیهای بسیار طولانی برای وظایف حافظهمحور و پردازش اسناد در مقیاس بزرگ پشتیبانی میکند.",
|
|
554
|
+
"glm-4-plus.description": "GLM-4-Plus پرچمدار با هوش بالا است که در مدیریت متنهای طولانی و وظایف پیچیده قوی عمل میکند و عملکرد کلی ارتقاء یافتهای دارد.",
|
|
555
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking قویترین مدل VLM شناختهشده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفتهای مانند درک ویدیو، پرسشوپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عاملهای رابط کاربری، کدنویسی فرانتاند و اتصال به واقعیت را پوشش میدهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگتر است در بسیاری از وظایف پیشی میگیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیرهای برای بهبود دقت و غنای پاسخها بهره میبرد و در نتایج و قابلیت توضیحپذیری از مدلهای سنتی بدون تفکر بهتر عمل میکند.",
|
|
556
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قویترین مدل VLM شناختهشده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفتهای مانند درک ویدیو، پرسشوپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عاملهای رابط کاربری، کدنویسی فرانتاند و اتصال به واقعیت را پوشش میدهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگتر است در بسیاری از وظایف پیشی میگیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیرهای برای بهبود دقت و غنای پاسخها بهره میبرد و در نتایج و قابلیت توضیحپذیری از مدلهای سنتی بدون تفکر بهتر عمل میکند.",
|
|
515
557
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
516
558
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
517
559
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "نتیجهای یافت نشد",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "سیستم محلی",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "کپی",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "در حال ایجاد سند...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "ویرایش",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "گسترش",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "ایجاد سند",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "حذف سند",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "دریافت سند",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "بهروزرسانی سند",
|
|
103
|
+
"builtins.lobe-notebook.title": "دفترچه یادداشت",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "بهروزرسانی دستهای گرهها",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "مقایسه نسخهها",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "تبدیل به فهرست",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud از رابطهای برنامهنویسی رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
32
33
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
33
34
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
34
35
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, offrant des améliorations globales et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes, excelling en performance, intelligence, fluidité et compréhension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d’agents. Il atteint des performances comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans l’utilisation d’outils, se classant en tête des évaluations open source d’agents.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
|
|
379
379
|
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant la réponse pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
@@ -413,6 +413,35 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B est distillé à partir de Llama-3.3-70B-Instruct. Faisant partie de la série DeepSeek-R1, il est affiné sur des échantillons générés par DeepSeek-R1 et offre d'excellentes performances en mathématiques, programmation et raisonnement.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B est distillé à partir de Qwen2.5-14B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, offrant un raisonnement solide.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, excellant en mathématiques, programmation et raisonnement.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B excelle dans l’utilisation d’outils pour explorer des bases de code, modifier plusieurs fichiers et assister les agents en ingénierie logicielle.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite est un nouveau modèle léger à réponse ultra-rapide, offrant une qualité et une latence de premier ordre.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k est une mise à niveau complète de Doubao-1.5-Pro, améliorant les performances globales de 10 %. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 12k jetons de sortie, offrant de meilleures performances, une fenêtre plus large et une forte valeur pour des cas d’usage étendus.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro est un modèle phare de nouvelle génération avec des améliorations globales, excellent en connaissances, codage et raisonnement.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 est un nouveau modèle de raisonnement profond (la version m inclut un raisonnement multimodal natif) qui excelle en mathématiques, codage, raisonnement scientifique et tâches générales comme l’écriture créative. Il atteint ou approche les meilleurs résultats sur des benchmarks tels que AIME 2024, Codeforces et GPQA. Il prend en charge une fenêtre de contexte de 128k et une sortie jusqu’à 16k jetons.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 est un nouveau modèle de raisonnement profond qui excelle en mathématiques, codage, raisonnement scientifique et tâches générales comme l’écriture créative. Il atteint ou approche les meilleurs résultats sur des benchmarks tels que AIME 2024, Codeforces et GPQA. Il prend en charge une fenêtre de contexte de 128k et une sortie jusqu’à 16k jetons.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Un nouveau modèle visuel de raisonnement profond avec une compréhension et un raisonnement multimodaux renforcés, atteignant des résultats SOTA sur 37 des 59 benchmarks publics.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS est un modèle d’agent natif centré sur l’interface graphique, interagissant de manière fluide avec les interfaces grâce à une perception, un raisonnement et une action proches de l’humain.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions. Il prend en charge une fenêtre de contexte de 128k et jusqu’à 16k jetons de sortie.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions.",
|
|
427
|
+
"doubao-lite-128k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash est un modèle multimodal de raisonnement profond ultra-rapide avec un TPOT aussi bas que 10 ms. Il prend en charge le texte et la vision, dépasse l’ancien modèle lite en compréhension textuelle et rivalise avec les modèles pro concurrents en vision. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite est un nouveau modèle multimodal de raisonnement profond avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé), offrant un meilleur rapport qualité-prix et un excellent choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu’à 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 renforce considérablement le raisonnement, améliorant encore les capacités fondamentales en codage, mathématiques et raisonnement logique par rapport à Doubao-1.5-thinking-pro, tout en ajoutant la compréhension visuelle. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision est un modèle visuel de raisonnement profond offrant une compréhension et un raisonnement multimodaux renforcés pour l’éducation, la révision d’images, l’inspection/sécurité et les questions-réponses en recherche IA. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 64k jetons de sortie.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 est un nouveau modèle multimodal de raisonnement profond avec des modes auto, raisonnement et non-raisonnement. En mode non-raisonnement, il surpasse nettement Doubao-1.5-pro/250115. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 offre une compréhension multimodale et des capacités d’agent renforcées, prenant en charge les entrées texte/image/vidéo avec mise en cache contextuelle, pour des performances supérieures sur des tâches complexes.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code est optimisé pour le codage agentique, prend en charge les entrées multimodales (texte/image/vidéo) et une fenêtre de contexte de 256k, compatible avec l’API Anthropic, adapté au codage, à la compréhension visuelle et aux flux de travail d’agents.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Le modèle d’image Doubao de ByteDance Seed prend en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il prend en charge l’édition d’image guidée par texte, avec des tailles de sortie entre 512 et 1536 sur le côté long.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
|
|
444
|
+
"emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en conseil pour aider les utilisateurs à comprendre leurs problèmes émotionnels.",
|
|
416
445
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
417
446
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
418
447
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Aucun résultat",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Système local",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "Copier",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "Création du document...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "Modifier",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "Développer",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "Créer un document",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "Supprimer le document",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "Obtenir le document",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "Mettre à jour le document",
|
|
103
|
+
"builtins.lobe-notebook.title": "Carnet de notes",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Mettre à jour plusieurs nœuds",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Comparer les instantanés",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "Convertir en liste",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
|
|
30
30
|
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
|
31
31
|
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
|
|
32
33
|
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
|
|
34
35
|
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
|