@lobehub/lobehub 2.0.0-next.271 → 2.0.0-next.273

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (93) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/e2e/src/features/home/starter.feature +34 -0
  4. package/e2e/src/steps/home/starter.steps.ts +216 -0
  5. package/locales/ar/common.json +1 -1
  6. package/locales/ar/discover.json +2 -2
  7. package/locales/ar/models.json +38 -9
  8. package/locales/ar/onboarding.json +1 -1
  9. package/locales/ar/providers.json +0 -1
  10. package/locales/bg-BG/common.json +2 -0
  11. package/locales/bg-BG/discover.json +2 -2
  12. package/locales/bg-BG/models.json +45 -10
  13. package/locales/bg-BG/onboarding.json +1 -1
  14. package/locales/bg-BG/providers.json +0 -1
  15. package/locales/de-DE/common.json +2 -0
  16. package/locales/de-DE/discover.json +2 -2
  17. package/locales/de-DE/models.json +34 -9
  18. package/locales/de-DE/onboarding.json +3 -0
  19. package/locales/de-DE/providers.json +0 -1
  20. package/locales/en-US/discover.json +2 -2
  21. package/locales/en-US/models.json +10 -10
  22. package/locales/en-US/providers.json +0 -1
  23. package/locales/es-ES/common.json +2 -0
  24. package/locales/es-ES/discover.json +2 -2
  25. package/locales/es-ES/models.json +29 -10
  26. package/locales/es-ES/onboarding.json +3 -0
  27. package/locales/es-ES/providers.json +0 -1
  28. package/locales/fa-IR/common.json +2 -0
  29. package/locales/fa-IR/discover.json +2 -2
  30. package/locales/fa-IR/models.json +33 -10
  31. package/locales/fa-IR/onboarding.json +3 -0
  32. package/locales/fa-IR/providers.json +0 -1
  33. package/locales/fr-FR/common.json +2 -0
  34. package/locales/fr-FR/discover.json +2 -2
  35. package/locales/fr-FR/models.json +45 -10
  36. package/locales/fr-FR/onboarding.json +3 -0
  37. package/locales/fr-FR/providers.json +0 -1
  38. package/locales/it-IT/common.json +2 -0
  39. package/locales/it-IT/discover.json +2 -2
  40. package/locales/it-IT/models.json +5 -10
  41. package/locales/it-IT/onboarding.json +3 -0
  42. package/locales/it-IT/providers.json +0 -1
  43. package/locales/ja-JP/common.json +2 -0
  44. package/locales/ja-JP/discover.json +2 -2
  45. package/locales/ja-JP/models.json +34 -5
  46. package/locales/ja-JP/onboarding.json +3 -0
  47. package/locales/ja-JP/providers.json +0 -1
  48. package/locales/ko-KR/common.json +2 -0
  49. package/locales/ko-KR/discover.json +2 -2
  50. package/locales/ko-KR/models.json +5 -11
  51. package/locales/ko-KR/onboarding.json +3 -0
  52. package/locales/ko-KR/providers.json +0 -1
  53. package/locales/nl-NL/common.json +2 -0
  54. package/locales/nl-NL/discover.json +2 -2
  55. package/locales/nl-NL/models.json +47 -6
  56. package/locales/nl-NL/onboarding.json +3 -0
  57. package/locales/nl-NL/providers.json +0 -1
  58. package/locales/pl-PL/common.json +2 -0
  59. package/locales/pl-PL/discover.json +2 -2
  60. package/locales/pl-PL/models.json +35 -10
  61. package/locales/pl-PL/onboarding.json +3 -0
  62. package/locales/pl-PL/providers.json +0 -1
  63. package/locales/pt-BR/common.json +2 -0
  64. package/locales/pt-BR/discover.json +2 -2
  65. package/locales/pt-BR/models.json +47 -9
  66. package/locales/pt-BR/onboarding.json +3 -0
  67. package/locales/pt-BR/providers.json +0 -1
  68. package/locales/ru-RU/common.json +2 -0
  69. package/locales/ru-RU/discover.json +2 -2
  70. package/locales/ru-RU/models.json +52 -10
  71. package/locales/ru-RU/onboarding.json +3 -0
  72. package/locales/ru-RU/providers.json +0 -1
  73. package/locales/tr-TR/common.json +2 -0
  74. package/locales/tr-TR/discover.json +2 -2
  75. package/locales/tr-TR/models.json +38 -10
  76. package/locales/tr-TR/onboarding.json +3 -0
  77. package/locales/tr-TR/providers.json +0 -1
  78. package/locales/vi-VN/common.json +2 -0
  79. package/locales/vi-VN/discover.json +2 -2
  80. package/locales/vi-VN/models.json +5 -5
  81. package/locales/vi-VN/onboarding.json +3 -0
  82. package/locales/vi-VN/providers.json +0 -1
  83. package/locales/zh-CN/discover.json +2 -2
  84. package/locales/zh-CN/models.json +41 -9
  85. package/locales/zh-CN/onboarding.json +3 -0
  86. package/locales/zh-CN/providers.json +0 -1
  87. package/locales/zh-TW/common.json +2 -0
  88. package/locales/zh-TW/discover.json +2 -2
  89. package/locales/zh-TW/models.json +43 -9
  90. package/locales/zh-TW/onboarding.json +3 -0
  91. package/locales/zh-TW/providers.json +0 -1
  92. package/package.json +1 -1
  93. package/src/store/home/slices/homeInput/action.ts +6 -3
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
273
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en numerosos indicadores.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
289
289
  "codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
358
- "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles de GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
358
+ "deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
379
379
  "deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
382
382
  "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes de alta calidad y altamente controlable a partir de indicaciones.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con una generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
480
480
  "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
482
- "fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
483
- "fal-ai/qwen-image.description": "Modelo potente de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.",
482
+ "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
483
+ "fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y una amplia variedad de estilos visuales.",
484
484
  "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
486
486
  "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
@@ -573,6 +573,25 @@
573
573
  "glm-z1-flashx.description": "Rápido y de bajo costo: versión Flash mejorada con razonamiento ultrarrápido y mayor concurrencia.",
574
574
  "glm-zero-preview.description": "GLM-Zero-Preview ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.",
575
575
  "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia excepcional y rendimiento escalable para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
576
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece capacidades de nueva generación, incluyendo excelente velocidad, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
577
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental es el modelo multimodal experimental más reciente de Google, con mejoras de calidad respecto a versiones anteriores, especialmente en conocimiento del mundo, código y contexto largo.",
578
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite es una variante ligera de Gemini con el razonamiento desactivado por defecto para mejorar la latencia y el costo, aunque puede activarse mediante parámetros.",
579
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite ofrece funciones de nueva generación como velocidad excepcional, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
580
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash es el modelo de razonamiento de alto rendimiento de Google para tareas multimodales extendidas.",
581
+ "google/gemini-2.5-flash-image-free.description": "Nivel gratuito de Gemini 2.5 Flash Image con generación multimodal de cuota limitada.",
582
+ "google/gemini-2.5-flash-image-preview.description": "Modelo experimental Gemini 2.5 Flash con soporte para generación de imágenes.",
583
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) es el modelo de generación de imágenes de Google con soporte para conversación multimodal.",
584
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite es la variante ligera de Gemini 2.5 optimizada para latencia y costo, ideal para escenarios de alto rendimiento.",
585
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash es el modelo insignia más avanzado de Google, diseñado para tareas de razonamiento, programación, matemáticas y ciencia. Incluye razonamiento integrado para ofrecer respuestas más precisas con un procesamiento de contexto más fino.\n\nNota: Este modelo tiene dos variantes: con y sin razonamiento. El precio de salida varía significativamente según si el razonamiento está activado. Si eliges la variante estándar (sin el sufijo “:thinking”), el modelo evitará explícitamente generar tokens de razonamiento.\n\nPara usar el razonamiento y recibir tokens de razonamiento, debes seleccionar la variante “:thinking”, que conlleva un precio de salida más alto.\n\nGemini 2.5 Flash también puede configurarse mediante el parámetro “max reasoning tokens” como se documenta (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash es el modelo insignia más avanzado de Google, diseñado para tareas de razonamiento, programación, matemáticas y ciencia. Incluye razonamiento integrado para ofrecer respuestas más precisas con un procesamiento de contexto más fino.\n\nNota: Este modelo tiene dos variantes: con y sin razonamiento. El precio de salida varía significativamente según si el razonamiento está activado. Si eliges la variante estándar (sin el sufijo “:thinking”), el modelo evitará explícitamente generar tokens de razonamiento.\n\nPara usar el razonamiento y recibir tokens de razonamiento, debes seleccionar la variante “:thinking”, que conlleva un precio de salida más alto.\n\nGemini 2.5 Flash también puede configurarse mediante el parámetro “max reasoning tokens” como se documenta (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
587
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) es la familia de modelos de Google que abarca desde baja latencia hasta razonamiento de alto rendimiento.",
588
+ "google/gemini-2.5-pro-free.description": "El nivel gratuito de Gemini 2.5 Pro ofrece generación multimodal de contexto largo con cuota limitada, ideal para pruebas y flujos de trabajo ligeros.",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google para resolver problemas complejos en código, matemáticas y STEM, y para analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo insignia de razonamiento de Google con soporte de contexto largo para tareas complejas.",
591
+ "google/gemini-3-pro-image-preview-free.description": "Nivel gratuito de Gemini 3 Pro Image con generación multimodal de cuota limitada.",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google con soporte para conversación multimodal.",
593
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free ofrece la misma comprensión y razonamiento multimodal que la versión estándar, pero con límites de cuota y frecuencia, ideal para pruebas y uso ocasional.",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro es el modelo de razonamiento multimodal de nueva generación de la familia Gemini, capaz de comprender texto, audio, imágenes y video, y manejar tareas complejas y grandes bases de código.",
576
595
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
577
596
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
578
597
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Creación de Contenido",
13
13
  "interests.hint": "Puedes cambiar esto en cualquier momento desde la configuración",
14
14
  "interests.placeholder": "Escribe tus intereses...",
15
+ "interests.title": "¿En qué áreas estás interesado?",
16
+ "interests.title2": "Esto me ayudará a conocerte mejor",
17
+ "interests.title3": "Tómate tu tiempo, así podré conocerte mejor",
15
18
  "modeSelection.desc": "Elige el modo que mejor se adapte a ti",
16
19
  "modeSelection.hint": "Puedes cambiar esto en cualquier momento desde la configuración",
17
20
  "modeSelection.lite.desc": "Ideal para conversaciones cotidianas, preguntas y respuestas, productividad ligera y probar modelos",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
- "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
33
32
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
34
33
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
35
34
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "عامل انجمن",
135
135
  "cmdk.search.file": "فایل",
136
136
  "cmdk.search.files": "فایل‌ها",
137
+ "cmdk.search.folder": "پوشه",
138
+ "cmdk.search.folders": "پوشه‌ها",
137
139
  "cmdk.search.loading": "در حال جستجو...",
138
140
  "cmdk.search.market": "انجمن",
139
141
  "cmdk.search.mcp": "سرور MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "بیشتر",
57
57
  "assistants.plugins": "مهارت‌های یکپارچه",
58
58
  "assistants.recentSubmits": "به‌روزرسانی‌های اخیر",
59
- "assistants.sorts.recommended": "پیشنهادی",
60
59
  "assistants.sorts.createdAt": "تازه‌ترین‌ها",
61
60
  "assistants.sorts.identifier": "شناسه عامل",
62
61
  "assistants.sorts.knowledgeCount": "تعداد کتابخانه‌ها",
63
62
  "assistants.sorts.myown": "مشاهده عوامل من",
64
63
  "assistants.sorts.pluginCount": "تعداد مهارت‌ها",
64
+ "assistants.sorts.recommended": "پیشنهادی",
65
65
  "assistants.sorts.title": "نام عامل",
66
66
  "assistants.sorts.tokenUsage": "مصرف توکن",
67
67
  "assistants.status.archived.reasons.official": "این عامل به دلایل امنیتی، سیاستی یا سایر موارد توسط پلتفرم حذف شده است.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "این عامل شامل کتابخانه‌ها است",
84
84
  "assistants.withPlugin": "این عامل شامل مهارت‌ها است",
85
85
  "back": "بازگشت به اکتشاف",
86
- "category.assistant.discover": "اکتشاف",
87
86
  "category.assistant.academic": "آکادمیک",
88
87
  "category.assistant.all": "همه",
89
88
  "category.assistant.career": "شغلی",
90
89
  "category.assistant.copywriting": "کپی‌رایتینگ",
91
90
  "category.assistant.design": "طراحی",
91
+ "category.assistant.discover": "اکتشاف",
92
92
  "category.assistant.education": "آموزشی",
93
93
  "category.assistant.emotions": "احساسی",
94
94
  "category.assistant.entertainment": "سرگرمی",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های متعددی را بهبود داده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته را با کنترل دقیق ارائه می‌دهد.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام گسترده‌ای تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر عمیق ارائه می‌شود.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته همراه است.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته را با کنترل دقیق برای کاربران API ارائه می‌دهد.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترده‌ای با فرآیند قابل مشاهده تولید کند.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
358
+ "deepseek-chat.description": "مدلی متن‌باز جدید که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت برنامه‌نویسی مدل کدنویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
379
  "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از تولید خروجی، زنجیره تفکر ایجاد می‌کند تا دقت بالاتری داشته باشد. این مدل در رقابت‌های برتر نتایج عالی کسب کرده و استدلالی در حد Gemini-3.0-Pro ارائه می‌دهد.",
381
+ "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
382
382
  "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
473
473
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط تیم Seed در ByteDance، از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل از طریق دستورات را ممکن می‌سازد.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
475
475
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
480
480
  "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
482
- "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
483
- "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با توانایی بالا در رندر متن چینی و سبک‌های بصری متنوع.",
482
+ "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
483
+ "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبک‌های بصری متنوع.",
484
484
  "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
485
485
  "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
486
486
  "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@@ -606,6 +606,29 @@
606
606
  "google/gemma-3-27b-it.description": "Gemma 3 27B یک مدل زبان متن‌باز گوگل است که استاندارد جدیدی برای کارایی و عملکرد تعیین می‌کند.",
607
607
  "google/text-embedding-005.description": "مدل جاسازی متن متمرکز بر زبان انگلیسی که برای وظایف کد و زبان انگلیسی بهینه شده است.",
608
608
  "google/text-multilingual-embedding-002.description": "مدل جاسازی متن چندزبانه بهینه‌شده برای وظایف میان‌زبانی در زبان‌های مختلف.",
609
+ "gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
610
+ "gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
611
+ "gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo برای وظایف تولید و درک متن، بهینه‌شده برای پیروی از دستورالعمل‌ها.",
612
+ "gpt-3.5-turbo.description": "GPT 3.5 Turbo برای تولید و درک متن؛ در حال حاضر به gpt-3.5-turbo-0125 اشاره دارد.",
613
+ "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k یک مدل تولید متن با ظرفیت بالا برای وظایف پیچیده است.",
614
+ "gpt-35-turbo.description": "GPT-3.5 Turbo مدل کارآمد OpenAI برای چت و تولید متن است که از فراخوانی توابع به‌صورت موازی پشتیبانی می‌کند.",
615
+ "gpt-4-0125-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
616
+ "gpt-4-0613.description": "GPT-4 پنجره متنی بزرگ‌تری برای مدیریت ورودی‌های طولانی فراهم می‌کند و برای ترکیب گسترده اطلاعات و تحلیل داده‌ها مناسب است.",
617
+ "gpt-4-1106-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
618
+ "gpt-4-32k-0613.description": "GPT-4 پنجره متنی بزرگ‌تری برای مدیریت ورودی‌های طولانی فراهم می‌کند و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده دارند مناسب است.",
619
+ "gpt-4-32k.description": "GPT-4 پنجره متنی بزرگ‌تری برای مدیریت ورودی‌های طولانی فراهم می‌کند و برای سناریوهایی که نیاز به ادغام گسترده اطلاعات و تحلیل داده دارند مناسب است.",
620
+ "gpt-4-turbo-2024-04-09.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
621
+ "gpt-4-turbo-preview.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
622
+ "gpt-4-turbo.description": "جدیدترین GPT-4 Turbo با قابلیت بینایی همراه است. درخواست‌های تصویری از حالت JSON و فراخوانی توابع پشتیبانی می‌کنند. این مدل چندوجهی مقرون‌به‌صرفه، تعادلی میان دقت و کارایی برای کاربردهای بلادرنگ ارائه می‌دهد.",
623
+ "gpt-4-vision-preview.description": "پیش‌نمایش GPT-4 Vision، طراحی‌شده برای وظایف تحلیل و پردازش تصویر.",
624
+ "gpt-4.1-mini.description": "GPT-4.1 mini تعادلی میان هوش، سرعت و هزینه برقرار می‌کند و برای بسیاری از کاربردها جذاب است.",
625
+ "gpt-4.1-nano.description": "GPT-4.1 nano سریع‌ترین و مقرون‌به‌صرفه‌ترین مدل GPT-4.1 است.",
626
+ "gpt-4.1.description": "GPT-4.1 مدل پرچم‌دار ما برای وظایف پیچیده و حل مسائل میان‌دامنه‌ای است.",
627
+ "gpt-4.5-preview.description": "GPT-4.5-preview جدیدترین مدل عمومی با دانش عمیق از جهان و درک بهتر از نیت کاربر است که در وظایف خلاقانه و برنامه‌ریزی عامل‌ها بسیار قوی عمل می‌کند. تاریخ قطع دانش آن اکتبر ۲۰۲۳ است.",
628
+ "gpt-4.description": "GPT-4 پنجره متنی بزرگ‌تری برای مدیریت ورودی‌های طولانی فراهم می‌کند و برای ترکیب گسترده اطلاعات و تحلیل داده‌ها مناسب است.",
629
+ "gpt-4o-2024-05-13.description": "ChatGPT-4o مدلی پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
630
+ "gpt-4o-2024-08-06.description": "ChatGPT-4o مدلی پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
631
+ "gpt-4o-2024-11-20.description": "ChatGPT-4o مدلی پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
609
632
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
610
633
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
611
634
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "تولید محتوا",
13
13
  "interests.hint": "می‌توانید هر زمان از تنظیمات این را تغییر دهید",
14
14
  "interests.placeholder": "علایق خود را وارد کنید...",
15
+ "interests.title": "به چه زمینه‌هایی علاقه‌مند هستید؟",
16
+ "interests.title2": "این به من کمک می‌کنه بهتر با شما آشنا بشم",
17
+ "interests.title3": "عجله نکنید، کم‌کم بیشتر با شما آشنا می‌شم",
15
18
  "modeSelection.desc": "حالت کاری‌ای که برات مناسب‌تره رو انتخاب کن",
16
19
  "modeSelection.hint": "می‌تونی هر زمان از تنظیمات تغییرش بدی",
17
20
  "modeSelection.lite.desc": "مناسب برای گفتگوهای روزمره، پرسش و پاسخ، بهره‌وری سبک و تست مدل‌ها",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
- "lobehub.description": "LobeHub Cloud از رابط‌های رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
33
32
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
34
33
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
35
34
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Agent communautaire",
135
135
  "cmdk.search.file": "Fichier",
136
136
  "cmdk.search.files": "Fichiers",
137
+ "cmdk.search.folder": "Dossier",
138
+ "cmdk.search.folders": "Dossiers",
137
139
  "cmdk.search.loading": "Recherche en cours...",
138
140
  "cmdk.search.market": "Communauté",
139
141
  "cmdk.search.mcp": "Serveur MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Plus",
57
57
  "assistants.plugins": "Compétences intégrées",
58
58
  "assistants.recentSubmits": "Mises à jour récentes",
59
- "assistants.sorts.recommended": "Recommandé",
60
59
  "assistants.sorts.createdAt": "Récemment publié",
61
60
  "assistants.sorts.identifier": "ID de l'Agent",
62
61
  "assistants.sorts.knowledgeCount": "Bibliothèques",
63
62
  "assistants.sorts.myown": "Voir mes Agents",
64
63
  "assistants.sorts.pluginCount": "Compétences",
64
+ "assistants.sorts.recommended": "Recommandé",
65
65
  "assistants.sorts.title": "Nom de l'Agent",
66
66
  "assistants.sorts.tokenUsage": "Utilisation des jetons",
67
67
  "assistants.status.archived.reasons.official": "La plateforme a supprimé cet Agent pour des raisons de sécurité, de politique ou autres.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Cet Agent inclut des bibliothèques",
84
84
  "assistants.withPlugin": "Cet Agent inclut des compétences",
85
85
  "back": "Retour à la découverte",
86
- "category.assistant.discover": "Découverte",
87
86
  "category.assistant.academic": "Académique",
88
87
  "category.assistant.all": "Tous",
89
88
  "category.assistant.career": "Carrière",
90
89
  "category.assistant.copywriting": "Rédaction",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Découverte",
92
92
  "category.assistant.education": "Éducation",
93
93
  "category.assistant.emotions": "Émotions",
94
94
  "category.assistant.entertainment": "Divertissement",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, offrant des améliorations sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et surpasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d’agents. Les benchmarks publics atteignent le niveau de GPT-5, et c’est le premier à intégrer la réflexion dans l’utilisation d’outils, menant les évaluations open source d’agents.",
358
+ "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant les réponses pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d’images de haute qualité et hautement contrôlable à partir d’invites.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d’images de ByteDance Seed, prenant en charge les entrées texte et image, avec une génération d’images de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
480
480
  "fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
482
- "fal-ai/qwen-image-edit.description": "Modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois/anglais, le transfert de style, la rotation, et plus encore.",
483
- "fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen avec un excellent rendu du texte chinois et une grande diversité de styles visuels.",
482
+ "fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
483
+ "fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
484
484
  "flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
486
486
  "flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
@@ -491,6 +491,41 @@
491
491
  "flux-pro.description": "Modèle de génération d’images commercial haut de gamme avec une qualité d’image inégalée et des sorties variées.",
492
492
  "flux-schnell.description": "FLUX.1 [schnell] est le modèle open source le plus avancé en génération rapide, surpassant les concurrents similaires et même des modèles non distillés puissants comme Midjourney v6.0 et DALL-E 3 (HD). Il est finement ajusté pour préserver la diversité de l’entraînement initial, améliorant considérablement la qualité visuelle, le suivi des instructions, la variation de taille/aspect, la gestion des polices et la diversité des sorties.",
493
493
  "flux.1-schnell.description": "FLUX.1-schnell est un modèle de génération d’images haute performance pour des sorties rapides et multi-styles.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre des performances stables et ajustables pour les tâches complexes.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) offre un support multimodal puissant pour les tâches complexes.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro est le modèle IA haute performance de Google conçu pour une large échelle de tâches.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace pour une mise à l’échelle étendue des applications.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 est un modèle multimodal efficace conçu pour un déploiement à grande échelle.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 est le dernier modèle expérimental avec des améliorations notables pour les cas d’usage textuels et multimodaux.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B est un modèle multimodal efficace conçu pour un déploiement à grande échelle.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B est un modèle multimodal efficace pour une mise à l’échelle étendue des applications.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 offre un traitement multimodal optimisé pour les tâches complexes.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash est le dernier modèle IA multimodal de Google avec un traitement rapide, prenant en charge les entrées texte, image et vidéo pour une mise à l’échelle efficace des tâches.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 est une solution IA multimodale évolutive pour les tâches complexes.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 est le dernier modèle prêt pour la production avec une sortie de meilleure qualité, notamment pour les mathématiques, les contextes longs et les tâches visuelles.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 offre un traitement multimodal puissant avec une plus grande flexibilité pour le développement d’applications.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 applique les dernières optimisations pour un traitement multimodal plus efficace.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro prend en charge jusqu’à 2 millions de jetons, un modèle multimodal de taille moyenne idéal pour les tâches complexes.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Modèle expérimental Gemini 2.0 Flash avec prise en charge de la génération d’images.",
511
+ "gemini-2.0-flash-exp.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
512
+ "gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
513
+ "gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview est le modèle le plus économique de Google avec des capacités complètes.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash est le modèle le plus économique de Google avec des capacités complètes.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
494
529
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
495
530
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
496
531
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Création de Contenu",
13
13
  "interests.hint": "Vous pouvez modifier cela à tout moment dans les paramètres",
14
14
  "interests.placeholder": "Indiquez vos centres d’intérêt...",
15
+ "interests.title": "Quels sont les domaines qui vous intéressent ?",
16
+ "interests.title2": "Cela m'aidera à mieux vous connaître",
17
+ "interests.title3": "Prenez votre temps, j'apprendrai à mieux vous connaître",
15
18
  "modeSelection.desc": "Choisissez le mode qui vous convient le mieux",
16
19
  "modeSelection.hint": "Vous pouvez modifier cela à tout moment dans les paramètres",
17
20
  "modeSelection.lite.desc": "Idéal pour les conversations quotidiennes, les questions-réponses, la productivité légère et l’exploration de modèles",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
- "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation en Crédits liés aux jetons des modèles.",
33
32
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
34
33
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
35
34
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Agente della comunità",
135
135
  "cmdk.search.file": "File",
136
136
  "cmdk.search.files": "File",
137
+ "cmdk.search.folder": "Cartella",
138
+ "cmdk.search.folders": "Cartelle",
137
139
  "cmdk.search.loading": "Ricerca in corso...",
138
140
  "cmdk.search.market": "Comunità",
139
141
  "cmdk.search.mcp": "Server MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Altro",
57
57
  "assistants.plugins": "Abilità integrate",
58
58
  "assistants.recentSubmits": "Aggiornamenti recenti",
59
- "assistants.sorts.recommended": "Consigliati",
60
59
  "assistants.sorts.createdAt": "Pubblicati di recente",
61
60
  "assistants.sorts.identifier": "ID Agente",
62
61
  "assistants.sorts.knowledgeCount": "Librerie",
63
62
  "assistants.sorts.myown": "Visualizza i miei Agenti",
64
63
  "assistants.sorts.pluginCount": "Abilità",
64
+ "assistants.sorts.recommended": "Consigliati",
65
65
  "assistants.sorts.title": "Nome Agente",
66
66
  "assistants.sorts.tokenUsage": "Utilizzo Token",
67
67
  "assistants.status.archived.reasons.official": "La piattaforma ha rimosso questo Agente per motivi di sicurezza, policy o altri problemi.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Questo Agente include Librerie",
84
84
  "assistants.withPlugin": "Questo Agente include Abilità",
85
85
  "back": "Torna alla Scoperta",
86
- "category.assistant.discover": "Scoperta",
87
86
  "category.assistant.academic": "Accademico",
88
87
  "category.assistant.all": "Tutti",
89
88
  "category.assistant.career": "Carriera",
90
89
  "category.assistant.copywriting": "Scrittura",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Scoperta",
92
92
  "category.assistant.education": "Educazione",
93
93
  "category.assistant.emotions": "Emozioni",
94
94
  "category.assistant.entertainment": "Intrattenimento",