@lobehub/lobehub 2.0.0-next.189 → 2.0.0-next.190

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (39) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/models.json +3 -8
  4. package/locales/ar/providers.json +0 -1
  5. package/locales/bg-BG/models.json +3 -6
  6. package/locales/bg-BG/providers.json +0 -1
  7. package/locales/de-DE/models.json +56 -6
  8. package/locales/de-DE/providers.json +0 -1
  9. package/locales/en-US/models.json +23 -15
  10. package/locales/en-US/providers.json +0 -1
  11. package/locales/es-ES/models.json +46 -7
  12. package/locales/es-ES/providers.json +0 -1
  13. package/locales/fa-IR/models.json +3 -6
  14. package/locales/fa-IR/providers.json +0 -1
  15. package/locales/fr-FR/models.json +45 -6
  16. package/locales/fr-FR/providers.json +0 -1
  17. package/locales/it-IT/models.json +35 -7
  18. package/locales/it-IT/providers.json +0 -1
  19. package/locales/ja-JP/models.json +33 -7
  20. package/locales/ja-JP/providers.json +0 -1
  21. package/locales/ko-KR/models.json +37 -7
  22. package/locales/ko-KR/providers.json +0 -1
  23. package/locales/nl-NL/models.json +3 -1
  24. package/locales/nl-NL/providers.json +0 -1
  25. package/locales/pl-PL/models.json +3 -1
  26. package/locales/pl-PL/providers.json +0 -1
  27. package/locales/pt-BR/models.json +43 -6
  28. package/locales/pt-BR/providers.json +0 -1
  29. package/locales/ru-RU/models.json +3 -6
  30. package/locales/ru-RU/providers.json +0 -1
  31. package/locales/tr-TR/models.json +45 -6
  32. package/locales/tr-TR/providers.json +0 -1
  33. package/locales/vi-VN/models.json +52 -1
  34. package/locales/vi-VN/providers.json +0 -1
  35. package/locales/zh-CN/models.json +3 -7
  36. package/locales/zh-CN/providers.json +0 -1
  37. package/locales/zh-TW/models.json +3 -6
  38. package/locales/zh-TW/providers.json +0 -1
  39. package/package.json +1 -1
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick es un modelo MoE grande con activación eficiente de expertos para un rendimiento sólido en razonamiento.",
74
74
  "MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
75
75
  "MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
76
- "MiniMax-M2.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes.",
76
+ "MiniMax-M2.1-Lightning.description": "Potente capacidad de programación multilingüe para una experiencia de codificación completamente mejorada. Más rápido y más eficiente.",
77
+ "MiniMax-M2.1.description": "Potente capacidad de programación multilingüe para una experiencia de codificación completamente mejorada",
78
+ "MiniMax-M2.description": "Diseñado para una codificación eficiente y flujos de trabajo con agentes",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de gran escala con pesos abiertos, 456B de parámetros totales y ~45.9B activos por token. Admite nativamente 1M de contexto y utiliza Flash Attention para reducir FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con arquitectura MoE más CISPO y entrenamiento híbrido con atención y RL, logra rendimiento líder en razonamiento con entradas largas y tareas reales de ingeniería de software.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefine la eficiencia de los agentes. Es un modelo MoE compacto, rápido y rentable con 230B totales y 10B parámetros activos, diseñado para tareas de codificación y agentes de alto nivel, manteniendo una inteligencia general sólida. Con solo 10B activos, rivaliza con modelos mucho más grandes, ideal para aplicaciones de alta eficiencia.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE de 671 mil millones de parámetros que utiliza MLA y DeepSeekMoE con balanceo de carga sin pérdida para inferencia y entrenamiento eficientes. Preentrenado con 14,8 billones de tokens de alta calidad y ajustado con SFT y RL, supera a otros modelos abiertos y se acerca al rendimiento de modelos cerrados líderes.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu, con 355 mil millones de parámetros totales y 32 mil millones de parámetros activos. Ofrece mejoras integrales en conversación general, razonamiento e inteligencia de agentes. GLM-4.7 refuerza el Pensamiento Intercalado (Interleaved Thinking), e introduce el Pensamiento Preservado (Preserved Thinking) y el Pensamiento por Turnos (Turn-level Thinking).",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview es un modelo de investigación de Qwen enfocado en razonamiento visual, con fortalezas en comprensión de escenas complejas y problemas visuales de matemáticas.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento de IA.",
@@ -268,20 +271,20 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
269
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
270
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en muchas pruebas.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, con soporte para respuestas casi instantáneas o pensamiento extendido con control detallado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso visibles para el usuario. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento paso a paso extendido con control detallado para usuarios de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
286
289
  "codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
287
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@@ -295,6 +298,43 @@
295
298
  "codeqwen.description": "CodeQwen1.5 es un modelo de lenguaje grande entrenado con datos extensos de código, diseñado para tareas de programación complejas.",
296
299
  "codestral-latest.description": "Codestral es nuestro modelo de codificación más avanzado; la versión v2 (enero 2025) está orientada a tareas de baja latencia y alta frecuencia como FIM, corrección de código y generación de pruebas.",
297
300
  "codestral.description": "Codestral es el primer modelo de código de Mistral AI, ofreciendo un sólido soporte para generación de código.",
301
+ "codex-mini-latest.description": "codex-mini-latest es un modelo o4-mini ajustado para la CLI de Codex. Para uso directo con API, se recomienda comenzar con gpt-4.1.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B es un modelo de lenguaje abierto de EE. UU. de uso comercial gratuito, con un rendimiento comparable a los mejores modelos, mayor eficiencia en razonamiento por tokens, contexto largo de 128k y gran capacidad general.",
303
+ "cogview-4.description": "CogView-4 es el primer modelo de texto a imagen de código abierto de Zhipu que puede generar caracteres chinos. Mejora la comprensión semántica, la calidad de imagen y la representación de texto en chino/inglés, admite entradas bilingües de longitud arbitraria y puede generar imágenes en cualquier resolución dentro de los rangos especificados.",
304
+ "cohere-command-r-plus.description": "Command R+ es un modelo avanzado optimizado para RAG, diseñado para cargas de trabajo empresariales.",
305
+ "cohere-command-r.description": "Command R es un modelo generativo escalable diseñado para RAG y uso de herramientas, permitiendo IA de nivel de producción.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+ es un modelo avanzado optimizado para RAG, diseñado para cargas de trabajo empresariales.",
307
+ "cohere/Cohere-command-r.description": "Command R es un modelo generativo escalable diseñado para RAG y uso de herramientas, permitiendo IA de nivel de producción.",
308
+ "cohere/command-a.description": "Command A es el modelo más potente de Cohere hasta la fecha, sobresaliendo en uso de herramientas, agentes, RAG y casos multilingües. Tiene una ventana de contexto de 256K, funciona con solo dos GPUs y ofrece un rendimiento 150% superior al de Command R+ 08-2024.",
309
+ "cohere/command-r-plus.description": "Command R+ es el último modelo LLM de Cohere optimizado para chat y contexto largo, con el objetivo de ofrecer un rendimiento excepcional para que las empresas pasen de prototipos a producción.",
310
+ "cohere/command-r.description": "Command R está optimizado para tareas de chat y contexto largo, posicionado como un modelo “escalable” que equilibra alto rendimiento y precisión para que las empresas avancen más allá de los prototipos.",
311
+ "cohere/embed-v4.0.description": "Un modelo que clasifica o convierte texto, imágenes o contenido mixto en embeddings.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev es un modelo de texto a imagen de alta calidad (10–50 pasos), ideal para resultados creativos y artísticos premium.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev es un modelo de edición de imágenes que admite ediciones guiadas por texto, incluidas ediciones locales y transferencia de estilo.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev es un modelo de texto a imagen con mejoras de seguridad, co-desarrollado con Krea, con filtros de seguridad integrados.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell es un modelo de texto a imagen ultrarrápido que genera imágenes de alta calidad en 1-4 pasos, ideal para uso en tiempo real y prototipado rápido.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 es un modelo clásico de texto a imagen 512x512, ideal para prototipado rápido y experimentación creativa.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 con codificadores CLIP/T5 integrados no necesita archivos de codificador externos, adecuado para modelos como sd3.5_medium_incl_clips con menor uso de recursos.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 es un modelo de texto a imagen de próxima generación con variantes Large y Medium. Requiere archivos de codificador CLIP externos y ofrece excelente calidad de imagen y fidelidad al prompt.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Modelo personalizado SDXL de imagen a imagen. Usa custom_sd_lobe.safetensors como nombre de archivo del modelo; si tienes un VAE, usa custom_sd_vae_lobe.safetensors. Coloca los archivos del modelo en las carpetas requeridas de Comfy.",
320
+ "comfyui/stable-diffusion-custom.description": "Modelo personalizado SD de texto a imagen. Usa custom_sd_lobe.safetensors como nombre de archivo del modelo; si tienes un VAE, usa custom_sd_vae_lobe.safetensors. Coloca los archivos del modelo en las carpetas requeridas de Comfy.",
321
+ "comfyui/stable-diffusion-refiner.description": "Modelo SDXL de imagen a imagen que realiza transformaciones de alta calidad a partir de imágenes de entrada, compatible con transferencia de estilo, restauración y variaciones creativas.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL es un modelo de texto a imagen que admite generación de alta resolución 1024x1024 con mejor calidad de imagen y detalle.",
323
+ "command-a-03-2025.description": "Command A es nuestro modelo más capaz hasta la fecha, sobresaliendo en uso de herramientas, agentes, RAG y escenarios multilingües. Tiene una ventana de contexto de 256K, funciona con solo dos GPUs y ofrece un rendimiento 150% superior al de Command R+ 08-2024.",
324
+ "command-light-nightly.description": "Para acortar el tiempo entre versiones principales, ofrecemos compilaciones nocturnas de Command. Para la serie command-light, se llama command-light-nightly. Es la versión más nueva y experimental (y potencialmente inestable), actualizada regularmente sin previo aviso, por lo que no se recomienda para producción.",
325
+ "command-light.description": "Una variante más pequeña y rápida de Command que es casi igual de capaz pero más veloz.",
326
+ "command-nightly.description": "Para acortar el tiempo entre versiones principales, ofrecemos compilaciones nocturnas de Command. Para la serie Command, se llama command-nightly. Es la versión más nueva y experimental (y potencialmente inestable), actualizada regularmente sin previo aviso, por lo que no se recomienda para producción.",
327
+ "command-r-03-2024.description": "Command R es un modelo de chat que sigue instrucciones con mayor calidad, fiabilidad y una ventana de contexto más larga que modelos anteriores. Admite flujos de trabajo complejos como generación de código, RAG, uso de herramientas y agentes.",
328
+ "command-r-08-2024.description": "command-r-08-2024 es una versión actualizada del modelo Command R lanzada en agosto de 2024.",
329
+ "command-r-plus-04-2024.description": "command-r-plus es un alias de command-r-plus-04-2024, por lo que usar command-r-plus en la API apunta a ese modelo.",
330
+ "command-r-plus-08-2024.description": "Command R+ es un modelo de chat que sigue instrucciones con mayor calidad, fiabilidad y una ventana de contexto más larga que modelos anteriores. Es ideal para flujos de trabajo RAG complejos y uso de herramientas en múltiples pasos.",
331
+ "command-r-plus.description": "Command R+ es un LLM de alto rendimiento diseñado para escenarios empresariales reales y aplicaciones complejas.",
332
+ "command-r.description": "Command R es un LLM optimizado para tareas de chat y contexto largo, ideal para interacción dinámica y gestión del conocimiento.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024 es una actualización pequeña y eficiente lanzada en diciembre de 2024. Destaca en RAG, uso de herramientas y tareas de agentes que requieren razonamiento complejo en múltiples pasos.",
334
+ "command.description": "Un modelo de chat que sigue instrucciones y ofrece mayor calidad y fiabilidad en tareas lingüísticas, con una ventana de contexto más larga que nuestros modelos generativos base.",
335
+ "computer-use-preview.description": "computer-use-preview es un modelo especializado para la herramienta \"uso de computadora\", entrenado para comprender y ejecutar tareas relacionadas con computadoras.",
336
+ "dall-e-2.description": "Modelo DALL·E de segunda generación con generación de imágenes más realista y precisa, y 4× la resolución de la primera generación.",
337
+ "dall-e-3.description": "El modelo DALL·E más reciente, lanzado en noviembre de 2023, admite generación de imágenes más realista y precisa con mayor nivel de detalle.",
298
338
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
299
339
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
300
340
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -331,7 +371,6 @@
331
371
  "microsoft/WizardLM-2-8x22B.description": "WizardLM 2 es un modelo de lenguaje de Microsoft AI que destaca en diálogos complejos, tareas multilingües, razonamiento y asistentes.",
332
372
  "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B es el modelo Wizard más avanzado de Microsoft AI, con un rendimiento altamente competitivo.",
333
373
  "minicpm-v.description": "MiniCPM-V es el modelo multimodal de próxima generación de OpenBMB, con excelente OCR y comprensión multimodal para una amplia gama de casos de uso.",
334
- "minimax-m2.description": "MiniMax M2 es un LLM eficiente diseñado para flujos de trabajo de codificación y agentes.",
335
374
  "minimax/minimax-m2.description": "MiniMax-M2 es un modelo de alto valor que sobresale en tareas de codificación y agentes para muchos escenarios de ingeniería.",
336
375
  "minimaxai/minimax-m2.description": "MiniMax-M2 es un modelo MoE compacto, rápido y rentable (230B en total, 10B activos) diseñado para un rendimiento de primer nivel en codificación y agentes, manteniendo una sólida inteligencia general. Destaca en ediciones de múltiples archivos, ciclos de ejecución y corrección de código, validación de pruebas y cadenas de herramientas complejas.",
337
376
  "ministral-3b-latest.description": "Ministral 3B es el modelo de borde de más alto nivel de Mistral.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
- "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
33
32
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
34
33
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
35
34
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick یک مدل MoE بزرگ با فعال‌سازی کارآمد متخصصان برای عملکرد استدلالی قوی است.",
74
74
  "MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدل‌های برتر جهانی.",
75
75
  "MiniMax-M2-Stable.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور، با هم‌زمانی بالاتر برای استفاده تجاری.",
76
- "MiniMax-M2.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور.",
76
+ "MiniMax-M2.1-Lightning.description": "توانایی قدرتمند در برنامه‌نویسی چندزبانه، ارتقاء کامل تجربه کدنویسی. سریع‌تر و کارآمدتر.",
77
+ "MiniMax-M2.1.description": "توانایی قدرتمند در برنامه‌نویسی چندزبانه، ارتقاء کامل تجربه کدنویسی",
78
+ "MiniMax-M2.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی می‌کند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه می‌دهد و تا ۴ میلیون توکن زمینه را پشتیبانی می‌کند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلالی با وزن‌های باز و معماری توجه ترکیبی در مقیاس بزرگ است با ۴۵۶ میلیارد پارامتر کل و حدود ۴۵.۹ میلیارد پارامتر فعال در هر توکن. این مدل به‌صورت بومی از زمینه ۱ میلیون توکن پشتیبانی می‌کند و با استفاده از Flash Attention، مصرف FLOPs را در تولید ۱۰۰ هزار توکن تا ۷۵٪ نسبت به DeepSeek R1 کاهش می‌دهد. با معماری MoE به‌همراه CISPO و آموزش تقویتی با توجه ترکیبی، عملکردی پیشرو در استدلال ورودی‌های طولانی و وظایف واقعی مهندسی نرم‌افزار ارائه می‌دهد.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 کارایی عامل‌ها را بازتعریف می‌کند. این مدل MoE فشرده، سریع و مقرون‌به‌صرفه با ۲۳۰ میلیارد پارامتر کل و ۱۰ میلیارد پارامتر فعال است که برای وظایف کدنویسی و عامل‌های سطح بالا طراحی شده و در عین حال هوش عمومی قوی را حفظ می‌کند. با تنها ۱۰ میلیارد پارامتر فعال، با مدل‌های بسیار بزرگ‌تر رقابت می‌کند و برای کاربردهای با کارایی بالا ایده‌آل است.",
@@ -268,20 +270,15 @@
268
270
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
269
271
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
270
272
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که در مهارت‌های مختلف بهبود یافته و در بسیاری از آزمون‌ها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
272
273
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic است و اولین مدل استدلال ترکیبی در بازار محسوب می‌شود که از پاسخ‌های تقریباً فوری یا تفکر طولانی با کنترل دقیق پشتیبانی می‌کند.",
274
274
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
275
275
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
276
276
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
277
277
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت فوق‌العاده و تفکر گسترده همراه است.",
279
278
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
280
279
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
282
280
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
283
281
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با کنترل دقیق برای کاربران API ارائه می‌دهد.",
285
282
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
286
283
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
287
284
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
- "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
33
32
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
34
33
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
35
34
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick est un grand modèle MoE avec activation efficace des experts pour des performances de raisonnement élevées.",
74
74
  "MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million d’entrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
75
75
  "MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail d’agents, avec une plus grande simultanéité pour un usage commercial.",
76
- "MiniMax-M2.description": "Conçu pour un codage efficace et des flux de travail d’agents.",
76
+ "MiniMax-M2.1-Lightning.description": "Puissante capacité de programmation multilingue, une expérience de codage entièrement améliorée. Plus rapide, plus efficace.",
77
+ "MiniMax-M2.1.description": "Puissante capacité de programmation multilingue, une expérience de codage entièrement améliorée",
78
+ "MiniMax-M2.description": "Conçu pour un codage efficace et des flux de travail d'agents",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusqu’à 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement à attention hybride à grande échelle avec poids ouverts, totalisant 456 milliards de paramètres et environ 45,9 milliards actifs par jeton. Il prend en charge nativement un contexte de 1 million de jetons et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 jetons par rapport à DeepSeek R1. Grâce à une architecture MoE, CISPO et un entraînement RL à attention hybride, il atteint des performances de pointe sur les tâches de raisonnement à long contexte et d’ingénierie logicielle réelle.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redéfinit l’efficacité des agents. C’est un modèle MoE compact, rapide et économique avec 230 milliards de paramètres totaux et 10 milliards actifs, conçu pour des tâches de codage et d’agents de haut niveau tout en conservant une intelligence générale solide. Avec seulement 10 milliards de paramètres actifs, il rivalise avec des modèles bien plus grands, ce qui en fait un choix idéal pour des applications à haute efficacité.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour une inférence et un entraînement efficaces. Préentraîné sur 14,8T de jetons de haute qualité et affiné avec SFT et RL, il surpasse les autres modèles open source et se rapproche des modèles fermés de pointe.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 est le tout dernier et le plus puissant modèle Kimi K2. Il s'agit d'un modèle MoE de premier plan avec 1T de paramètres totaux et 32B de paramètres actifs. Ses principales caractéristiques incluent une intelligence de codage agentique renforcée avec des gains significatifs sur les benchmarks et les tâches d'agents réels, ainsi qu'une esthétique et une convivialité améliorées pour le codage en interface utilisateur.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo est la variante Turbo optimisée pour la vitesse de raisonnement et le débit, tout en conservant le raisonnement multi-étapes et l'utilisation d'outils de K2 Thinking. Il s'agit d'un modèle MoE avec environ 1T de paramètres totaux, un contexte natif de 256K, et un appel d'outils à grande échelle stable pour des scénarios de production nécessitant une faible latence et une forte concurrence.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 est le nouveau modèle phare de Zhipu, avec 355 milliards de paramètres totaux et 32 milliards de paramètres actifs. Il offre des améliorations complètes en dialogue général, raisonnement et capacités d'agents. GLM-4.7 renforce la pensée entrelacée (Interleaved Thinking), et introduit la pensée préservée (Preserved Thinking) et la pensée par tour (Turn-level Thinking).",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview est un modèle de recherche de Qwen axé sur le raisonnement visuel, avec des points forts en compréhension de scènes complexes et en résolution de problèmes visuels mathématiques.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement de l'IA.",
@@ -268,20 +271,20 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
269
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
270
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic, amélioré sur de nombreuses compétences et surpassant l’ancien modèle phare Claude 3 Opus sur plusieurs benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et surpasse le précédent plus grand modèle Claude 3 Opus sur de nombreux tests d’intelligence.",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché, capable de fournir des réponses instantanées ou une réflexion approfondie avec un contrôle précis.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l'utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d'agents.",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant vitesse fulgurante et réflexion approfondie.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant vitesse fulgurante et raisonnement approfondi.",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion détaillée avec un contrôle précis pour les utilisateurs d’API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
286
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
287
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -296,6 +299,42 @@
296
299
  "codestral-latest.description": "Codestral est notre modèle de codage le plus avancé ; la version v2 (janvier 2025) cible les tâches à faible latence et haute fréquence comme FIM, la correction de code et la génération de tests.",
297
300
  "codestral.description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent support pour la génération de code.",
298
301
  "codex-mini-latest.description": "codex-mini-latest est un modèle o4-mini affiné pour l'interface en ligne de commande Codex. Pour une utilisation directe via l'API, nous recommandons de commencer avec gpt-4.1.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B est un modèle de langage open source américain, gratuit pour un usage commercial. Il rivalise avec les meilleurs modèles, offre une meilleure efficacité de raisonnement par jeton, un contexte long de 128k et de solides performances globales.",
303
+ "cogview-4.description": "CogView-4 est le premier modèle open source de génération d'images à partir de texte de Zhipu capable de générer des caractères chinois. Il améliore la compréhension sémantique, la qualité d'image et le rendu du texte en chinois/anglais, prend en charge des invites bilingues de longueur arbitraire et peut générer des images à toute résolution dans des plages spécifiées.",
304
+ "cohere-command-r-plus.description": "Command R+ est un modèle avancé optimisé pour le RAG, conçu pour les charges de travail en entreprise.",
305
+ "cohere-command-r.description": "Command R est un modèle génératif évolutif conçu pour le RAG et l'utilisation d'outils, permettant une IA de niveau production.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+ est un modèle avancé optimisé pour le RAG, conçu pour les charges de travail en entreprise.",
307
+ "cohere/Cohere-command-r.description": "Command R est un modèle génératif évolutif conçu pour le RAG et l'utilisation d'outils, permettant une IA de niveau production.",
308
+ "cohere/command-a.description": "Command A est le modèle le plus puissant de Cohere à ce jour, excellent dans l'utilisation d'outils, les agents, le RAG et les cas d'utilisation multilingues. Il dispose d'un contexte de 256K, fonctionne sur seulement deux GPU et offre un débit 150 % supérieur à Command R+ 08-2024.",
309
+ "cohere/command-r-plus.description": "Command R+ est le dernier modèle LLM de Cohere, optimisé pour le chat et les contextes longs, visant des performances exceptionnelles pour permettre aux entreprises de passer des prototypes à la production.",
310
+ "cohere/command-r.description": "Command R est optimisé pour les tâches de chat et de contexte long, positionné comme un modèle « évolutif » qui équilibre haute performance et précision pour permettre aux entreprises de dépasser les prototypes et passer à la production.",
311
+ "cohere/embed-v4.0.description": "Un modèle qui classe ou convertit du texte, des images ou du contenu mixte en embeddings.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev est un modèle texte-vers-image de haute qualité (10 à 50 étapes), idéal pour des rendus créatifs et artistiques premium.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev est un modèle d'édition d'image qui prend en charge les modifications guidées par le texte, y compris les modifications locales et le transfert de style.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev est un modèle texte-vers-image renforcé en sécurité, co-développé avec Krea, avec des filtres de sécurité intégrés.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell est un modèle texte-vers-image ultra-rapide qui génère des images de haute qualité en 1 à 4 étapes, idéal pour une utilisation en temps réel et le prototypage rapide.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 est un modèle texte-vers-image classique en 512x512, idéal pour le prototypage rapide et les expérimentations créatives.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 avec encodeurs CLIP/T5 intégrés ne nécessite aucun fichier d'encodeur externe, adapté aux modèles comme sd3.5_medium_incl_clips avec une utilisation réduite des ressources.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 est un modèle texte-vers-image de nouvelle génération avec des variantes Large et Medium. Il nécessite des fichiers d'encodeur CLIP externes et offre une excellente qualité d'image et une bonne fidélité aux invites.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Modèle image-vers-image SDXL personnalisé. Utilisez custom_sd_lobe.safetensors comme nom de fichier du modèle ; si vous avez un VAE, utilisez custom_sd_vae_lobe.safetensors. Placez les fichiers du modèle dans les dossiers requis de Comfy.",
320
+ "comfyui/stable-diffusion-custom.description": "Modèle texte-vers-image SD personnalisé. Utilisez custom_sd_lobe.safetensors comme nom de fichier du modèle ; si vous avez un VAE, utilisez custom_sd_vae_lobe.safetensors. Placez les fichiers du modèle dans les dossiers requis de Comfy.",
321
+ "comfyui/stable-diffusion-refiner.description": "Modèle image-vers-image SDXL réalisant des transformations de haute qualité à partir d'images d'entrée, prenant en charge le transfert de style, la restauration et les variations créatives.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL est un modèle texte-vers-image prenant en charge la génération haute résolution 1024x1024 avec une meilleure qualité d'image et plus de détails.",
323
+ "command-a-03-2025.description": "Command A est notre modèle le plus performant à ce jour, excellent dans l'utilisation d'outils, les agents, le RAG et les scénarios multilingues. Il dispose d'une fenêtre de contexte de 256K, fonctionne sur seulement deux GPU et offre un débit 150 % supérieur à Command R+ 08-2024.",
324
+ "command-light-nightly.description": "Pour réduire l'intervalle entre les versions majeures, nous proposons des versions Command nocturnes. Pour la série command-light, cela s'appelle command-light-nightly. C'est la version la plus récente, la plus expérimentale (et potentiellement instable), mise à jour régulièrement sans préavis, donc non recommandée pour la production.",
325
+ "command-light.description": "Une variante Command plus petite et plus rapide, presque aussi performante mais plus rapide.",
326
+ "command-nightly.description": "Pour réduire l'intervalle entre les versions majeures, nous proposons des versions Command nocturnes. Pour la série Command, cela s'appelle command-nightly. C'est la version la plus récente, la plus expérimentale (et potentiellement instable), mise à jour régulièrement sans préavis, donc non recommandée pour la production.",
327
+ "command-r-03-2024.description": "Command R est un modèle de chat suivant les instructions avec une qualité supérieure, une fiabilité accrue et une fenêtre de contexte plus longue que les modèles précédents. Il prend en charge des flux de travail complexes tels que la génération de code, le RAG, l'utilisation d'outils et les agents.",
328
+ "command-r-08-2024.description": "command-r-08-2024 est une version mise à jour du modèle Command R publiée en août 2024.",
329
+ "command-r-plus-04-2024.description": "command-r-plus est un alias de command-r-plus-04-2024, donc utiliser command-r-plus dans l'API pointe vers ce modèle.",
330
+ "command-r-plus-08-2024.description": "Command R+ est un modèle de chat suivant les instructions avec une qualité supérieure, une fiabilité accrue et une fenêtre de contexte plus longue que les modèles précédents. Il est idéal pour les flux de travail RAG complexes et l'utilisation d'outils en plusieurs étapes.",
331
+ "command-r-plus.description": "Command R+ est un LLM haute performance conçu pour des scénarios d'entreprise réels et des applications complexes.",
332
+ "command-r.description": "Command R est un LLM optimisé pour le chat et les tâches à long contexte, idéal pour l'interaction dynamique et la gestion des connaissances.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024 est une mise à jour légère et efficace publiée en décembre 2024. Il excelle dans le RAG, l'utilisation d'outils et les tâches d'agents nécessitant un raisonnement complexe en plusieurs étapes.",
334
+ "command.description": "Un modèle de chat suivant les instructions qui offre une qualité et une fiabilité supérieures pour les tâches linguistiques, avec une fenêtre de contexte plus longue que nos modèles génératifs de base.",
335
+ "computer-use-preview.description": "computer-use-preview est un modèle spécialisé pour l'outil \"utilisation de l'ordinateur\", entraîné pour comprendre et exécuter des tâches liées à l'informatique.",
336
+ "dall-e-2.description": "Modèle DALL·E de deuxième génération avec une génération d'images plus réaliste et précise, et une résolution 4× supérieure à la première génération.",
337
+ "dall-e-3.description": "Le dernier modèle DALL·E, publié en novembre 2023, prend en charge une génération d'images plus réaliste et précise avec un niveau de détail renforcé.",
299
338
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
300
339
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
301
340
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
- "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de Crédits liés aux jetons des modèles.",
33
32
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
34
33
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
35
34
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick è un grande modello MoE con attivazione efficiente degli esperti per prestazioni di ragionamento elevate.",
74
74
  "MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
75
75
  "MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
76
- "MiniMax-M2.description": "Progettato per flussi di lavoro di codifica e agenti efficienti.",
76
+ "MiniMax-M2.1-Lightning.description": "Potente supporto alla programmazione multilingue, per un'esperienza di codifica completamente rinnovata. Più veloce, più efficiente.",
77
+ "MiniMax-M2.1.description": "Potente supporto alla programmazione multilingue, per un'esperienza di codifica completamente rinnovata.",
78
+ "MiniMax-M2.description": "Progettato per una codifica efficiente e flussi di lavoro con agenti AI",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 è un modello di ragionamento ibrido su larga scala con pesi open, 456B parametri totali e ~45,9B attivi per token. Supporta nativamente 1M di contesto e utilizza Flash Attention per ridurre i FLOPs del 75% nella generazione di 100K token rispetto a DeepSeek R1. Con architettura MoE, CISPO e addestramento RL ibrido, raggiunge prestazioni leader su ragionamento con input lunghi e compiti reali di ingegneria del software.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 ridefinisce l'efficienza degli agenti. È un modello MoE compatto, veloce ed economico con 230B parametri totali e 10B attivi, progettato per compiti di codifica e agenti di alto livello mantenendo una forte intelligenza generale. Con soli 10B parametri attivi, rivaleggia con modelli molto più grandi, rendendolo ideale per applicazioni ad alta efficienza.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE da 671B parametri che utilizza MLA e DeepSeekMoE con bilanciamento del carico senza perdite per un'inferenza e addestramento efficienti. Preaddestrato su 14,8T token di alta qualità e ulteriormente ottimizzato con SFT e RL, supera altri modelli open-source e si avvicina ai modelli chiusi leader.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente di Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Le caratteristiche principali includono un'intelligenza di codifica agentica più forte con miglioramenti significativi nei benchmark e nei compiti reali da agente, oltre a una migliore estetica e usabilità del codice frontend.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo è la variante Turbo ottimizzata per velocità di ragionamento e throughput, mantenendo il ragionamento multi-step e l'uso di strumenti di K2 Thinking. È un modello MoE con ~1T parametri totali, contesto nativo da 256K e chiamata stabile di strumenti su larga scala per scenari di produzione con requisiti più severi di latenza e concorrenza.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 è il nuovo modello di punta di Zhipu AI, con 355 miliardi di parametri totali e 32 miliardi attivi. Offre miglioramenti completi nel dialogo generale, nel ragionamento e nelle capacità degli agenti. GLM-4.7 potenzia il pensiero intercalato (Interleaved Thinking) e introduce il pensiero preservato (Preserved Thinking) e il pensiero a livello di turno (Turn-level Thinking).",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview è un modello di ricerca del team Qwen focalizzato sul ragionamento visivo, con punti di forza nella comprensione di scene complesse e nella risoluzione di problemi visivi di matematica.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento dell'IA.",
@@ -268,20 +271,20 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
269
272
  "claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
270
273
  "claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in molti benchmark di intelligenza.",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con controllo dettagliato.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all'utente. Sonnet eccelle in programmazione, data science, visione e compiti per agenti.",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di pensiero esteso.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento esteso.",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offrendo risposte quasi istantanee o riflessioni estese passo dopo passo con controllo dettagliato per gli utenti API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 può fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con processo visibile.",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
286
289
  "codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
287
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
@@ -306,6 +309,32 @@
306
309
  "cohere/command-r-plus.description": "Command R+ è l'ultimo LLM di Cohere ottimizzato per chat e contesto lungo, con prestazioni eccezionali per passare dai prototipi alla produzione.",
307
310
  "cohere/command-r.description": "Command R è ottimizzato per chat e compiti a contesto lungo, posizionato come modello \"scalabile\" che bilancia alte prestazioni e precisione per passare dai prototipi alla produzione.",
308
311
  "cohere/embed-v4.0.description": "Un modello che classifica o converte testo, immagini o contenuti misti in embedding.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev è un modello testo-immagine di alta qualità (10–50 passaggi), ideale per output creativi e artistici di livello premium.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev è un modello di editing immagini che supporta modifiche guidate da testo, inclusi ritocchi locali e trasferimento di stile.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev è un modello testo-immagine con filtri di sicurezza integrati, sviluppato in collaborazione con Krea.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell è un modello testo-immagine ultra-veloce che genera immagini di alta qualità in 1-4 passaggi, ideale per uso in tempo reale e prototipazione rapida.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 è un classico modello testo-immagine 512x512, ideale per prototipazione rapida ed esperimenti creativi.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 con encoder CLIP/T5 integrati non richiede file encoder esterni, adatto a modelli come sd3.5_medium_incl_clips con uso ridotto di risorse.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 è un modello testo-immagine di nuova generazione con varianti Large e Medium. Richiede file encoder CLIP esterni e offre eccellente qualità d'immagine e aderenza ai prompt.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Modello personalizzato SDXL immagine-a-immagine. Usa custom_sd_lobe.safetensors come nome file del modello; se hai un VAE, usa custom_sd_vae_lobe.safetensors. Inserisci i file modello nelle cartelle richieste da Comfy.",
320
+ "comfyui/stable-diffusion-custom.description": "Modello personalizzato SD testo-a-immagine. Usa custom_sd_lobe.safetensors come nome file del modello; se hai un VAE, usa custom_sd_vae_lobe.safetensors. Inserisci i file modello nelle cartelle richieste da Comfy.",
321
+ "comfyui/stable-diffusion-refiner.description": "Modello SDXL immagine-a-immagine che esegue trasformazioni di alta qualità da immagini in input, supportando trasferimento di stile, restauro e variazioni creative.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL è un modello testo-immagine che supporta generazione ad alta risoluzione 1024x1024 con migliore qualità e dettaglio visivo.",
323
+ "command-a-03-2025.description": "Command A è il nostro modello più avanzato, eccellente nell'uso di strumenti, agenti, RAG e scenari multilingue. Ha una finestra di contesto di 256K, funziona con solo due GPU e offre una produttività superiore del 150% rispetto a Command R+ 08-2024.",
324
+ "command-light-nightly.description": "Per ridurre il tempo tra le versioni principali, offriamo build notturne di Command. Per la serie command-light si chiama command-light-nightly. È la versione più recente ed esperimentale (potenzialmente instabile), aggiornata regolarmente senza preavviso, quindi non è consigliata per ambienti di produzione.",
325
+ "command-light.description": "Una variante Command più piccola e veloce, quasi altrettanto capace ma più rapida.",
326
+ "command-nightly.description": "Per ridurre il tempo tra le versioni principali, offriamo build notturne di Command. Per la serie Command si chiama command-nightly. È la versione più recente ed esperimentale (potenzialmente instabile), aggiornata regolarmente senza preavviso, quindi non è consigliata per ambienti di produzione.",
327
+ "command-r-03-2024.description": "Command R è un modello di chat che segue istruzioni, con qualità superiore, maggiore affidabilità e una finestra di contesto più lunga rispetto ai modelli precedenti. Supporta flussi di lavoro complessi come generazione di codice, RAG, uso di strumenti e agenti.",
328
+ "command-r-08-2024.description": "command-r-08-2024 è una versione aggiornata del modello Command R rilasciata ad agosto 2024.",
329
+ "command-r-plus-04-2024.description": "command-r-plus è un alias di command-r-plus-04-2024, quindi usare command-r-plus nell'API punta a quel modello.",
330
+ "command-r-plus-08-2024.description": "Command R+ è un modello di chat che segue istruzioni, con qualità superiore, maggiore affidabilità e una finestra di contesto più lunga rispetto ai modelli precedenti. È ideale per flussi di lavoro RAG complessi e uso multi-step di strumenti.",
331
+ "command-r-plus.description": "Command R+ è un LLM ad alte prestazioni progettato per scenari aziendali reali e applicazioni complesse.",
332
+ "command-r.description": "Command R è un LLM ottimizzato per chat e compiti a lungo contesto, ideale per interazioni dinamiche e gestione della conoscenza.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024 è un aggiornamento piccolo ed efficiente rilasciato a dicembre 2024. Eccelle in RAG, uso di strumenti e compiti per agenti che richiedono ragionamento complesso multi-step.",
334
+ "command.description": "Un modello di chat che segue istruzioni, offrendo maggiore qualità e affidabilità nei compiti linguistici, con una finestra di contesto più lunga rispetto ai nostri modelli generativi base.",
335
+ "computer-use-preview.description": "computer-use-preview è un modello specializzato per lo strumento \"uso del computer\", addestrato per comprendere ed eseguire compiti legati al computer.",
336
+ "dall-e-2.description": "Modello DALL·E di seconda generazione con generazione di immagini più realistica e accurata e risoluzione 4× rispetto alla prima generazione.",
337
+ "dall-e-3.description": "L'ultimo modello DALL·E, rilasciato a novembre 2023, supporta generazione di immagini più realistica e accurata con maggiore dettaglio.",
309
338
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
310
339
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
311
340
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@@ -342,7 +371,6 @@
342
371
  "microsoft/WizardLM-2-8x22B.description": "WizardLM 2 è un modello linguistico di Microsoft AI eccellente nei dialoghi complessi, nei compiti multilingue, nel ragionamento e negli assistenti.",
343
372
  "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B è il modello Wizard più avanzato di Microsoft AI, con prestazioni altamente competitive.",
344
373
  "minicpm-v.description": "MiniCPM-V è il modello multimodale di nuova generazione di OpenBMB, con eccellenti capacità OCR e comprensione multimodale per un'ampia gamma di casi d'uso.",
345
- "minimax-m2.description": "MiniMax M2 è un LLM efficiente progettato per flussi di lavoro di codifica e agenti.",
346
374
  "minimax/minimax-m2.description": "MiniMax-M2 è un modello ad alto valore che eccelle nella codifica e nei compiti per agenti in molti scenari ingegneristici.",
347
375
  "minimaxai/minimax-m2.description": "MiniMax-M2 è un modello MoE compatto, veloce ed economico (230B totali, 10B attivi) progettato per prestazioni di alto livello nella codifica e nei compiti per agenti, mantenendo una forte intelligenza generale. Eccelle in modifiche multi-file, cicli di esecuzione-correzione del codice, validazione dei test e catene di strumenti complesse.",
348
376
  "ministral-3b-latest.description": "Ministral 3B è il modello edge di punta di Mistral.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
30
30
  "jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
31
31
  "lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
32
- "lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
33
32
  "minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
34
33
  "mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
35
34
  "modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick は、効率的なエキスパート活性化により強力な推論性能を実現する大規模 MoE モデルです。",
74
74
  "MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
75
75
  "MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
76
- "MiniMax-M2.description": "効率的なコーディングとエージェントワークフローのために設計されています。",
76
+ "MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング能力で、プログラミング体験を全面的にアップグレード。より高速、より効率的に。",
77
+ "MiniMax-M2.1.description": "強力な多言語プログラミング能力で、プログラミング体験を全面的にアップグレード",
78
+ "MiniMax-M2.description": "効率的なコーディングとエージェントワークフローのために設計されたモデル",
77
79
  "MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートし(GPT-4oの32倍、Claude-3.5-Sonnetの20倍)、最高水準の性能を実現します。",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1は、4560億の総パラメータとトークンあたり約45.9億のアクティブパラメータを持つ、オープンウェイトの大規模ハイブリッドアテンション推論モデルです。100Kトークン生成時にFLOPsを75%削減するFlash Attentionを採用し、1Mのコンテキストをネイティブにサポートします。MoEアーキテクチャ、CISPO、ハイブリッドアテンション強化学習により、長文推論や実際のソフトウェアエンジニアリングタスクで卓越した性能を発揮します。",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2は、エージェント効率を再定義するコンパクトで高速かつコスト効率の高いMoEモデルです。総パラメータ2300億、アクティブパラメータ100億で、優れたコーディングとエージェントタスクに対応しながら、強力な汎用知能を維持します。アクティブパラメータが少ないにもかかわらず、より大規模なモデルに匹敵する性能を発揮し、高効率なアプリケーションに最適です。",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3は、MLAとDeepSeekMoEを使用し、損失のない負荷分散により効率的な推論と学習を実現する6710億パラメータのMoEモデルです。14.8兆の高品質トークンで事前学習され、SFTとRLでさらに調整され、他のオープンモデルを上回り、主要なクローズドモデルに迫る性能を発揮します。",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 は、最新かつ最も高性能な Kimi K2 モデルです。1T の総パラメータと 32B のアクティブパラメータを持つ最上位の MoE モデルであり、エージェント型コーディング知能が強化され、ベンチマークおよび実世界のエージェントタスクにおいて大幅な性能向上を実現しています。さらに、フロントエンドのコード美学と使いやすさも改善されています。",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo は、K2 Thinking のマルチステップ推論とツール使用能力を維持しつつ、推論速度とスループットを最適化した Turbo バリアントです。約 1T の総パラメータを持つ MoE モデルで、ネイティブで 256K のコンテキスト長をサポートし、低レイテンシーかつ高同時実行性が求められる本番環境において安定した大規模ツール呼び出しが可能です。",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 は智譜の次世代フラッグシップモデルで、総パラメータ数は355B、アクティブパラメータ数は32Bです。汎用対話、推論、エージェント能力において全面的に強化されています。GLM-4.7 は Interleaved Thinking(交差思考)を強化し、Preserved Thinking(思考の保持)と Turn-level Thinking(ターン単位の思考)を導入しています。",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ は、推論能力の向上に焦点を当てた実験的研究モデルです。",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview は、Qwen による視覚的推論に特化した研究モデルであり、複雑なシーン理解や視覚的数学問題に強みを持ちます。",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ は、AI の推論能力向上に焦点を当てた実験的研究モデルです。",
@@ -268,20 +271,20 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
269
272
  "claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
270
273
  "claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 HaikuはAnthropicの次世代モデルの中で最も高速なモデルであり、さまざまなスキルにおいて向上し、従来のフラッグシップモデルClaude 3 Opusを多くのベンチマークで上回ります。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku Anthropic の次世代モデルの中で最も高速なモデルです。Claude 3 Haiku と比較して全体的なスキルが向上しており、以前の最大モデル Claude 3 Opus を多くの知能ベンチマークで上回ります。",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7はAnthropicの最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と深い思考の両方をサポートし、きめ細かな制御が可能です。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet Anthropic の最も知的なモデルで、市場初のハイブリッド推論モデルです。即時応答と、ユーザーが確認できる段階的な推論の両方を生成できます。特にコーディング、データサイエンス、画像処理、エージェントタスクに優れています。",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5はAnthropicの中で最も高速かつ高知能なHaikuモデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 Anthropic の最速かつ最も賢い Haiku モデルで、稲妻のようなスピードと高度な推論能力を備えています。",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
281
- "claude-opus-4-20250514.description": "Claude Opus 4はAnthropicの中で最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 Anthropic の最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4はAnthropic史上最も知的なモデルであり、APIユーザー向けに即時応答と段階的な思考をきめ細かく制御できます。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、即時応答または段階的な思考プロセスを可視化しながら生成できます。",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
286
289
  "codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
287
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
@@ -333,6 +336,30 @@
333
336
  "dall-e-2.description": "第2世代のDALL·Eモデルであり、より現実的かつ正確な画像生成が可能で、初代の4倍の解像度を実現します。",
334
337
  "dall-e-3.description": "2023年11月にリリースされた最新のDALL·Eモデルであり、より現実的かつ正確な画像生成と高いディテール表現をサポートします。",
335
338
  "databricks/dbrx-instruct.description": "DBRX Instruct は、業界を問わず高い信頼性のある指示処理を提供します。",
339
+ "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR は DeepSeek AI による視覚と言語の統合モデルで、OCR(光学文字認識)と「コンテキスト光学圧縮」に特化しています。画像からの文脈情報を圧縮し、文書を効率的に処理して構造化テキスト(例:Markdown)に変換します。画像内のテキストを高精度で認識し、文書のデジタル化、テキスト抽出、構造化処理に最適です。",
340
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B は、DeepSeek-R1-0528 の連想思考を Qwen3 8B Base に蒸留したモデルです。AIME 2024 で Qwen3 8B を 10% 上回り、Qwen3-235B-thinking に匹敵する性能を発揮します。数学的推論、プログラミング、一般的な論理ベンチマークに優れています。Qwen3-8B のアーキテクチャを共有しつつ、DeepSeek-R1-0528 のトークナイザーを使用しています。",
341
+ "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 は追加の計算資源と事後学習アルゴリズムの最適化により推論能力を強化しています。数学、プログラミング、一般的な論理ベンチマークで高い性能を発揮し、o3 や Gemini 2.5 Pro などのリーダーモデルに迫る実力を持ちます。",
342
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 蒸留モデルは、強化学習(RL)とコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てます。",
343
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 蒸留モデルは、強化学習(RL)とコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てます。",
344
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 蒸留モデルは、強化学習(RL)とコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立てます。",
345
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B は Qwen2.5-32B をベースに蒸留され、80 万件の厳選された DeepSeek-R1 サンプルでファインチューニングされています。数学、プログラミング、推論に優れ、AIME 2024、MATH-500(94.3% 正答率)、GPQA Diamond で高い成果を上げています。",
346
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B は Qwen2.5-Math-7B をベースに蒸留され、80 万件の厳選された DeepSeek-R1 サンプルでファインチューニングされています。MATH-500 で 92.8%、AIME 2024 で 55.5%、7B モデルとして CodeForces レーティング 1189 を記録しています。",
347
+ "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 は強化学習(RL)とコールドスタートデータを活用して推論能力を向上させ、オープンモデルのマルチタスクベンチマークで新たな基準を打ち立て、OpenAI-o1-mini を上回る性能を発揮します。",
348
+ "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 は DeepSeek-V2-Chat と DeepSeek-Coder-V2-Instruct を統合し、汎用能力とコーディング能力を兼ね備えたモデルです。文章生成と指示追従性が向上し、AlpacaEval 2.0、ArenaHard、AlignBench、MT-Bench で大きな進歩を示しています。",
349
+ "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus は V3.1 の改良版で、ハイブリッドエージェント LLM として位置づけられています。ユーザーから報告された問題を修正し、安定性と言語一貫性を向上させ、中国語と英語の混在や異常文字を削減しています。思考モードと非思考モードをチャットテンプレートで柔軟に切り替えられ、Code Agent や Search Agent の性能も向上し、ツール使用やマルチステップタスクの信頼性が高まりました。",
350
+ "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 はハイブリッド推論アーキテクチャを採用し、思考モードと非思考モードの両方をサポートします。",
351
+ "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp は次世代アーキテクチャへの橋渡しとなる実験的な V3.2 リリースです。V3.1-Terminus をベースに DeepSeek Sparse Attention(DSA)を追加し、長文コンテキストの学習と推論効率を向上させています。ツール使用、長文理解、マルチステップ推論に最適化されており、大規模コンテキストでの高効率推論の探求に理想的です。",
352
+ "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 は 671B パラメータの MoE モデルで、MLA と DeepSeekMoE を使用し、損失のない負荷分散により効率的な学習と推論を実現しています。14.8T の高品質トークンで事前学習され、SFT と RL により他のオープンモデルを上回り、クローズドモデルに迫る性能を発揮します。",
353
+ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)は、深い言語理解と対話能力を提供する革新的なモデルです。",
354
+ "deepseek-ai/deepseek-r1.description": "最先端の効率的な LLM で、推論、数学、プログラミングに強みを持ちます。",
355
+ "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
356
+ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
357
+ "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
358
+ "deepseek-chat.description": "汎用能力とコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの対話能力とコーディングモデルの強力なコーディング能力を維持しつつ、ユーザーの好みによりよく適合します。DeepSeek-V2.5 は文章生成と指示追従性も向上しています。",
359
+ "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
360
+ "deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
361
+ "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
362
+ "deepseek-ocr.description": "DeepSeek-OCR は DeepSeek AI による視覚と言語の統合モデルで、OCR(光学文字認識)と「コンテキスト光学圧縮」に特化しています。画像からの文脈情報を圧縮し、文書を効率的に処理して構造化テキスト(例:Markdown)に変換します。画像内のテキストを高精度で認識し、文書のデジタル化、テキスト抽出、構造化処理に最適です。",
336
363
  "gemini-flash-latest.description": "Gemini Flash の最新リリース",
337
364
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
338
365
  "gemini-pro-latest.description": "Gemini Pro の最新リリース",
@@ -373,7 +400,6 @@
373
400
  "microsoft/WizardLM-2-8x22B.description": "WizardLM 2 は Microsoft AI による言語モデルで、複雑な対話、多言語タスク、推論、アシスタントに優れています。",
374
401
  "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B は Microsoft AI による最先端の Wizard モデルで、非常に競争力のある性能を発揮します。",
375
402
  "minicpm-v.description": "MiniCPM-V は OpenBMB の次世代マルチモーダルモデルで、OCR とマルチモーダル理解に優れ、幅広い用途に対応します。",
376
- "minimax-m2.description": "MiniMax M2 は、コーディングとエージェントワークフロー向けに構築された効率的な LLM です。",
377
403
  "minimax/minimax-m2.description": "MiniMax-M2 は、エンジニアリングシナリオにおけるコーディングとエージェントタスクに優れた高価値モデルです。",
378
404
  "minimaxai/minimax-m2.description": "MiniMax-M2 は、230B 総パラメータ中 10B アクティブのコンパクトで高速、コスト効率の高い MoE モデルで、マルチファイル編集、コード実行・修正ループ、テスト検証、複雑なツールチェーンに優れた性能を発揮します。",
379
405
  "moonshot-v1-32k.description": "Moonshot V1 32Kは、32,768トークンの中程度の長さのコンテキストをサポートし、長文ドキュメントや複雑な対話に最適で、コンテンツ制作、レポート、チャットシステムに適しています。",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
30
30
  "jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
31
31
  "lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
32
- "lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を計測します。",
33
32
  "minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
34
33
  "mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
35
34
  "modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",