@lobehub/lobehub 2.0.0-next.309 → 2.0.0-next.310
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/e2e/src/steps/page/page-crud.steps.ts +119 -17
- package/locales/ar/auth.json +5 -0
- package/locales/ar/models.json +51 -0
- package/locales/ar/plugin.json +3 -0
- package/locales/bg-BG/auth.json +5 -0
- package/locales/bg-BG/models.json +41 -0
- package/locales/bg-BG/plugin.json +3 -0
- package/locales/de-DE/auth.json +5 -0
- package/locales/de-DE/models.json +39 -0
- package/locales/de-DE/plugin.json +3 -0
- package/locales/en-US/models.json +1 -0
- package/locales/es-ES/auth.json +5 -0
- package/locales/es-ES/models.json +48 -0
- package/locales/es-ES/plugin.json +3 -0
- package/locales/fa-IR/auth.json +5 -0
- package/locales/fa-IR/models.json +39 -0
- package/locales/fa-IR/plugin.json +3 -0
- package/locales/fr-FR/auth.json +5 -0
- package/locales/fr-FR/models.json +40 -0
- package/locales/fr-FR/plugin.json +3 -0
- package/locales/it-IT/auth.json +5 -0
- package/locales/it-IT/models.json +42 -0
- package/locales/it-IT/plugin.json +3 -0
- package/locales/ja-JP/auth.json +5 -0
- package/locales/ja-JP/models.json +39 -0
- package/locales/ja-JP/plugin.json +3 -0
- package/locales/ko-KR/auth.json +5 -0
- package/locales/ko-KR/models.json +41 -0
- package/locales/ko-KR/plugin.json +3 -0
- package/locales/nl-NL/auth.json +5 -0
- package/locales/nl-NL/models.json +51 -0
- package/locales/nl-NL/plugin.json +3 -0
- package/locales/pl-PL/auth.json +5 -0
- package/locales/pl-PL/models.json +41 -0
- package/locales/pl-PL/plugin.json +3 -0
- package/locales/pt-BR/auth.json +5 -0
- package/locales/pt-BR/models.json +44 -0
- package/locales/pt-BR/plugin.json +3 -0
- package/locales/ru-RU/auth.json +5 -0
- package/locales/ru-RU/models.json +41 -0
- package/locales/ru-RU/plugin.json +3 -0
- package/locales/tr-TR/auth.json +5 -0
- package/locales/tr-TR/models.json +41 -0
- package/locales/tr-TR/plugin.json +3 -0
- package/locales/vi-VN/auth.json +5 -0
- package/locales/vi-VN/models.json +20 -0
- package/locales/vi-VN/plugin.json +3 -0
- package/locales/zh-CN/models.json +42 -0
- package/locales/zh-TW/auth.json +5 -0
- package/locales/zh-TW/models.json +32 -0
- package/locales/zh-TW/plugin.json +3 -0
- package/package.json +1 -1
|
@@ -396,6 +396,7 @@
|
|
|
396
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 es un modelo MoE de 685 mil millones de parámetros y la última iteración de la serie insignia de chat de DeepSeek.\n\nSe basa en [DeepSeek V3](/deepseek/deepseek-chat-v3) y ofrece un rendimiento sólido en diversas tareas.",
|
|
397
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 es el modelo de razonamiento híbrido de largo contexto de DeepSeek, compatible con modos mixtos de pensamiento/no pensamiento e integración de herramientas.",
|
|
398
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 es el modelo de razonamiento híbrido de alto rendimiento de DeepSeek para tareas complejas e integración de herramientas.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 es un modelo que ha logrado avances significativos en capacidades de razonamiento matemático. Su innovación principal radica en el mecanismo de entrenamiento de \"autoverificación\", y ha alcanzado niveles de medalla de oro en varias competiciones matemáticas de alto nivel.",
|
|
399
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 es una variante actualizada centrada en disponibilidad abierta y razonamiento más profundo.",
|
|
400
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 mejora significativamente el razonamiento con datos etiquetados mínimos y genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
|
|
401
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B es un modelo LLM destilado basado en Llama 3.3 70B, ajustado finamente con salidas de DeepSeek R1 para lograr un rendimiento competitivo con modelos de frontera de gran tamaño.",
|
|
@@ -629,6 +630,53 @@
|
|
|
629
630
|
"gpt-4o-2024-05-13.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina una sólida comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
630
631
|
"gpt-4o-2024-08-06.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real. Combina una sólida comprensión del lenguaje y generación para casos de uso a gran escala como atención al cliente, educación y asistencia técnica.",
|
|
631
632
|
"gpt-4o-2024-11-20.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina una sólida comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
633
|
+
"gpt-4o-audio-preview.description": "Modelo de vista previa de audio de GPT-4o con entrada y salida de audio.",
|
|
634
|
+
"gpt-4o-mini-audio-preview.description": "Modelo de audio mini de GPT-4o con entrada y salida de audio.",
|
|
635
|
+
"gpt-4o-mini-realtime-preview.description": "Variante en tiempo real de GPT-4o-mini con entrada/salida de audio y texto en tiempo real.",
|
|
636
|
+
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview está entrenado para comprender y ejecutar consultas de búsqueda web a través de la API de Chat Completions. La búsqueda web se factura por cada llamada a herramienta además del costo por tokens.",
|
|
637
|
+
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe es un modelo de voz a texto que transcribe audio con GPT-4o, mejorando la tasa de error de palabras, la identificación de idioma y la precisión en comparación con el modelo Whisper original.",
|
|
638
|
+
"gpt-4o-mini-tts.description": "GPT-4o mini TTS es un modelo de texto a voz basado en GPT-4o mini, que convierte texto en voz natural con un máximo de entrada de 2000 tokens.",
|
|
639
|
+
"gpt-4o-mini.description": "GPT-4o mini es el modelo más reciente de OpenAI tras GPT-4 Omni, compatible con entrada de texto+imagen y salida de texto. Es su modelo pequeño más avanzado, mucho más económico que los modelos de frontera recientes y más de un 60% más barato que GPT-3.5 Turbo, manteniendo una inteligencia de primer nivel (82% MMLU).",
|
|
640
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "Variante en tiempo real de GPT-4o con entrada/salida de audio y texto en tiempo real.",
|
|
641
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "Variante en tiempo real de GPT-4o con entrada/salida de audio y texto en tiempo real.",
|
|
642
|
+
"gpt-4o-realtime-preview.description": "Variante en tiempo real de GPT-4o con entrada/salida de audio y texto en tiempo real.",
|
|
643
|
+
"gpt-4o-search-preview.description": "GPT-4o Search Preview está entrenado para comprender y ejecutar consultas de búsqueda web a través de la API de Chat Completions. La búsqueda web se factura por cada llamada a herramienta además del costo por tokens.",
|
|
644
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe es un modelo de voz a texto que transcribe audio con GPT-4o, mejorando la tasa de error de palabras, la identificación de idioma y la precisión en comparación con el modelo Whisper original.",
|
|
645
|
+
"gpt-4o.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina una sólida comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
646
|
+
"gpt-5-chat-latest.description": "El modelo GPT-5 utilizado en ChatGPT, que combina una sólida comprensión y generación para aplicaciones conversacionales.",
|
|
647
|
+
"gpt-5-chat.description": "GPT-5 Chat es un modelo de vista previa optimizado para escenarios conversacionales. Admite entrada de texto e imagen, salida solo de texto, y es ideal para chatbots y aplicaciones de IA conversacional.",
|
|
648
|
+
"gpt-5-codex.description": "GPT-5 Codex es una variante de GPT-5 optimizada para tareas de codificación agente en entornos similares a Codex.",
|
|
649
|
+
"gpt-5-mini.description": "Una variante de GPT-5 más rápida y rentable para tareas bien definidas, que ofrece respuestas más rápidas manteniendo la calidad.",
|
|
650
|
+
"gpt-5-nano.description": "La variante más rápida y rentable de GPT-5, ideal para aplicaciones sensibles a la latencia y al costo.",
|
|
651
|
+
"gpt-5-pro.description": "GPT-5 pro utiliza más recursos de cómputo para pensar más profundamente y ofrecer respuestas consistentemente mejores.",
|
|
652
|
+
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: la variante de ChatGPT de GPT-5.1, diseñada para escenarios de conversación.",
|
|
653
|
+
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: una variante Codex más pequeña y económica optimizada para tareas de codificación agente.",
|
|
654
|
+
"gpt-5.1-codex.description": "GPT-5.1 Codex: una variante de GPT-5.1 optimizada para tareas de codificación agente, para flujos de trabajo complejos de código/agente en la API de Respuestas.",
|
|
655
|
+
"gpt-5.1.description": "GPT-5.1 — un modelo insignia optimizado para tareas de codificación y agentes con esfuerzo de razonamiento configurable y contexto extendido.",
|
|
656
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat es la variante de ChatGPT (chat-latest) para experimentar las mejoras más recientes en conversación.",
|
|
657
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: una variante más inteligente y precisa de GPT-5.2 (solo API de Respuestas), adecuada para problemas difíciles y razonamiento de múltiples turnos prolongado.",
|
|
658
|
+
"gpt-5.2.description": "GPT-5.2 es un modelo insignia para flujos de trabajo de codificación y agentes con razonamiento más sólido y rendimiento de contexto largo.",
|
|
659
|
+
"gpt-5.description": "El mejor modelo para tareas de codificación y agentes entre dominios. GPT-5 representa un salto en precisión, velocidad, razonamiento, conciencia de contexto, pensamiento estructurado y resolución de problemas.",
|
|
660
|
+
"gpt-audio.description": "GPT Audio es un modelo general de chat con entrada/salida de audio, compatible con la API de Chat Completions.",
|
|
661
|
+
"gpt-image-1-mini.description": "Una variante de menor costo de GPT Image 1 con entrada nativa de texto e imagen y salida de imagen.",
|
|
662
|
+
"gpt-image-1.5.description": "Un modelo mejorado de GPT Image 1 con generación 4× más rápida, edición más precisa y mejor renderizado de texto.",
|
|
663
|
+
"gpt-image-1.description": "Modelo nativo de generación de imágenes multimodal de ChatGPT.",
|
|
664
|
+
"gpt-oss-120b.description": "Se requiere solicitud de acceso. GPT-OSS-120B es un modelo de lenguaje de código abierto de OpenAI con gran capacidad de generación de texto.",
|
|
665
|
+
"gpt-oss-20b.description": "Se requiere solicitud de acceso. GPT-OSS-20B es un modelo de lenguaje de tamaño medio de código abierto de OpenAI con generación de texto eficiente.",
|
|
666
|
+
"gpt-oss:120b.description": "GPT-OSS 120B es el LLM de código abierto de gran tamaño de OpenAI que utiliza cuantización MXFP4 y se posiciona como modelo insignia. Requiere entornos con múltiples GPU o estaciones de trabajo de alto rendimiento y ofrece un excelente rendimiento en razonamiento complejo, generación de código y procesamiento multilingüe, con funciones avanzadas de llamadas a funciones e integración de herramientas.",
|
|
667
|
+
"gpt-oss:20b.description": "GPT-OSS 20B es un LLM de código abierto de OpenAI que utiliza cuantización MXFP4, adecuado para GPU de consumo de gama alta o Macs con Apple Silicon. Tiene buen rendimiento en generación de diálogos, codificación y tareas de razonamiento, y admite llamadas a funciones y uso de herramientas.",
|
|
668
|
+
"gpt-realtime.description": "Un modelo general en tiempo real que admite entrada/salida de texto y audio en tiempo real, además de entrada de imagen.",
|
|
669
|
+
"grok-2-image-1212.description": "Nuestro modelo más reciente de generación de imágenes crea imágenes vívidas y realistas a partir de indicaciones, y destaca en casos de uso de marketing, redes sociales y entretenimiento.",
|
|
670
|
+
"grok-2-vision-1212.description": "Mejora en precisión, seguimiento de instrucciones y capacidad multilingüe.",
|
|
671
|
+
"grok-3-mini.description": "Un modelo ligero que piensa antes de responder. Es rápido e inteligente para tareas lógicas que no requieren conocimiento profundo del dominio, con acceso a trazas de razonamiento en bruto.",
|
|
672
|
+
"grok-3.description": "Un modelo insignia que destaca en casos de uso empresariales como extracción de datos, codificación y resumen, con conocimiento profundo en finanzas, salud, derecho y ciencia.",
|
|
673
|
+
"grok-4-0709.description": "Grok 4 de xAI con gran capacidad de razonamiento.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "Modelo multimodal de frontera optimizado para el uso de herramientas de agentes de alto rendimiento.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "Modelo multimodal de frontera optimizado para el uso de herramientas de agentes de alto rendimiento.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "Nos complace lanzar Grok 4 Fast, nuestro último avance en modelos de razonamiento rentables.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "Nos complace lanzar Grok 4 Fast, nuestro último avance en modelos de razonamiento rentables.",
|
|
678
|
+
"grok-4.description": "Nuestro modelo insignia más nuevo y potente, que destaca en PLN, matemáticas y razonamiento: un todoterreno ideal.",
|
|
679
|
+
"grok-code-fast-1.description": "Nos complace lanzar grok-code-fast-1, un modelo de razonamiento rápido y rentable que destaca en codificación agente.",
|
|
632
680
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
633
681
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
634
682
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "Sandbox en la Nube",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Crear agentes en lote",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "Crear agente",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Obtener información del miembro",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Instalar habilidad",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Invitar miembro",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "Resumir conversación",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "Iniciar votación",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "Hablan los siguientes agentes:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Asignar",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "tarea:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Asignando tareas a:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "Habla el agente designado:",
|
|
75
78
|
"builtins.lobe-group-management.title": "Coordinador de Grupo",
|
package/locales/fa-IR/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "وضعیت فعال بودن",
|
|
29
29
|
"apikey.list.title": "فهرست کلیدهای API",
|
|
30
30
|
"apikey.validation.required": "این فیلد نمیتواند خالی باشد",
|
|
31
|
+
"authModal.description": "نشست ورود شما منقضی شده است. لطفاً برای ادامه استفاده از قابلیتهای همگامسازی ابری، دوباره وارد شوید.",
|
|
32
|
+
"authModal.later": "بعداً",
|
|
33
|
+
"authModal.signIn": "ورود مجدد",
|
|
34
|
+
"authModal.signingIn": "در حال ورود...",
|
|
35
|
+
"authModal.title": "نشست منقضی شد",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "لطفاً رمز عبور را تأیید کنید",
|
|
32
37
|
"betterAuth.errors.emailExists": "این ایمیل قبلاً ثبت شده است. لطفاً وارد شوید",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "لطفاً یک ایمیل یا نام کاربری معتبر وارد کنید",
|
|
@@ -396,6 +396,7 @@
|
|
|
396
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچمدار DeepSeek محسوب میشود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
|
|
397
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 مدل استدلال ترکیبی با زمینه بلند از DeepSeek است که از حالتهای تفکر/بدون تفکر و ادغام ابزارها پشتیبانی میکند.",
|
|
398
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 مدل استدلال ترکیبی با عملکرد بالا از DeepSeek برای وظایف پیچیده و ادغام ابزارها است.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "نسخه دوم DeepSeek Math یک مدل با پیشرفتهای چشمگیر در توانایی استدلال ریاضی است. نوآوری اصلی آن در مکانیزم آموزش «خود-بازبینی» نهفته است و در چندین رقابت برتر ریاضی به سطح مدال طلا دست یافته است.",
|
|
399
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 نسخه بهروزرسانیشدهای است که بر در دسترس بودن آزاد و استدلال عمیق تمرکز دارد.",
|
|
400
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 با استفاده از دادههای برچسبخورده حداقلی، توانایی استدلال را بهطور چشمگیری بهبود میبخشد و پیش از پاسخ نهایی، زنجیرهای از افکار تولید میکند تا دقت را افزایش دهد.",
|
|
401
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B یک مدل تقطیرشده بر پایه Llama 3.3 70B است که با استفاده از خروجیهای DeepSeek R1 تنظیم دقیق شده و عملکردی رقابتی با مدلهای پیشرفته بزرگ دارد.",
|
|
@@ -665,6 +666,44 @@
|
|
|
665
666
|
"gpt-oss:120b.description": "GPT-OSS 120B مدل LLM بزرگ متنباز OpenAI با کوانتیزاسیون MXFP4 است که به عنوان مدل پرچمدار معرفی شده. نیازمند محیط چند GPU یا ایستگاه کاری پیشرفته است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکرد عالی دارد، با قابلیت فراخوانی توابع پیشرفته و ادغام ابزارها.",
|
|
666
667
|
"gpt-oss:20b.description": "GPT-OSS 20B یک LLM متنباز از OpenAI با کوانتیزاسیون MXFP4 است که برای GPUهای مصرفی پیشرفته یا مکهای Apple Silicon مناسب است. در تولید گفتوگو، برنامهنویسی و وظایف استدلالی عملکرد خوبی دارد و از فراخوانی توابع و استفاده از ابزارها پشتیبانی میکند.",
|
|
667
668
|
"gpt-realtime.description": "مدل بلادرنگ عمومی با پشتیبانی از ورودی/خروجی بلادرنگ متن و صوت، بهعلاوه ورودی تصویری.",
|
|
669
|
+
"grok-2-image-1212.description": "جدیدترین مدل تولید تصویر ما، تصاویر زنده و واقعگرایانهای را از دستورات تولید میکند و در کاربردهای بازاریابی، شبکههای اجتماعی و سرگرمی عملکرد درخشانی دارد.",
|
|
670
|
+
"grok-2-vision-1212.description": "دقت بهبود یافته، پیروی بهتر از دستورالعملها و پشتیبانی چندزبانه.",
|
|
671
|
+
"grok-3-mini.description": "مدلی سبکوزن که پیش از پاسخدهی فکر میکند. برای وظایف منطقی که نیاز به دانش تخصصی عمیق ندارند، سریع و هوشمند است و به ردپای استدلال خام دسترسی دارد.",
|
|
672
|
+
"grok-3.description": "مدل پرچمدار که در کاربردهای سازمانی مانند استخراج داده، برنامهنویسی و خلاصهسازی برتری دارد و دارای دانش عمیق در حوزههای مالی، سلامت، حقوق و علوم است.",
|
|
673
|
+
"grok-4-0709.description": "Grok 4 از xAI با توانایی استدلال قوی.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "مدل چندوجهی پیشرفتهای که برای استفاده از ابزارهای عامل با عملکرد بالا بهینهسازی شده است.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "مدل چندوجهی پیشرفتهای که برای استفاده از ابزارهای عامل با عملکرد بالا بهینهسازی شده است.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "با افتخار Grok 4 Fast را معرفی میکنیم، جدیدترین پیشرفت ما در مدلهای استدلال مقرونبهصرفه.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "با افتخار Grok 4 Fast را معرفی میکنیم، جدیدترین پیشرفت ما در مدلهای استدلال مقرونبهصرفه.",
|
|
678
|
+
"grok-4.description": "جدیدترین و قدرتمندترین مدل پرچمدار ما که در پردازش زبان طبیعی، ریاضی و استدلال برتری دارد—یک مدل همهکاره ایدهآل.",
|
|
679
|
+
"grok-code-fast-1.description": "با افتخار grok-code-fast-1 را معرفی میکنیم، مدلی سریع و مقرونبهصرفه برای استدلال که در برنامهنویسی عاملمحور عملکرد درخشانی دارد.",
|
|
680
|
+
"groq/compound-mini.description": "Compound-mini یک سیستم هوش مصنوعی ترکیبی است که با مدلهای عمومی پشتیبانیشده در GroqCloud کار میکند و بهصورت هوشمندانه و انتخابی از ابزارها برای پاسخ به پرسشهای کاربران استفاده میکند.",
|
|
681
|
+
"groq/compound.description": "Compound یک سیستم هوش مصنوعی ترکیبی است که با چندین مدل عمومی پشتیبانیشده در GroqCloud کار میکند و بهصورت هوشمندانه و انتخابی از ابزارها برای پاسخ به پرسشهای کاربران استفاده میکند.",
|
|
682
|
+
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B یک مدل زبانی خلاق و هوشمند است که از ترکیب چندین مدل برتر ساخته شده است.",
|
|
683
|
+
"hunyuan-a13b.description": "اولین مدل استدلال ترکیبی از Hunyuan، ارتقاءیافته از hunyuan-standard-256K (در مجموع ۸۰ میلیارد، ۱۳ میلیارد فعال). بهطور پیشفرض با تفکر آهسته کار میکند و از طریق پارامترها یا پیشوند /no_think قابلیت تغییر بین تفکر سریع و آهسته را دارد. توانایی کلی آن نسبت به نسل قبلی بهویژه در ریاضی، علوم، درک متون بلند و وظایف عامل بهبود یافته است.",
|
|
684
|
+
"hunyuan-code.description": "جدیدترین مدل تولید کد که با ۲۰۰ میلیارد کد باکیفیت و شش ماه آموزش SFT آموزش دیده است؛ ظرفیت زمینه به ۸ هزار افزایش یافته. در ارزیابیهای خودکار برای پنج زبان و در ارزیابیهای انسانی در ده معیار برتر قرار دارد.",
|
|
685
|
+
"hunyuan-functioncall.description": "جدیدترین مدل MoE FunctionCall که با دادههای باکیفیت تماس تابع آموزش دیده، دارای پنجره زمینه ۳۲ هزار و نتایج پیشرو در ارزیابیهای مختلف است.",
|
|
686
|
+
"hunyuan-large-longcontext.description": "در وظایف اسناد بلند مانند خلاصهسازی و پرسشوپاسخ عملکرد درخشانی دارد و همچنین در تولید عمومی نیز توانمند است. در تحلیل و تولید متون بلند و پیچیده بسیار قوی است.",
|
|
687
|
+
"hunyuan-large-vision.description": "مدل زبان-بینایی آموزشدیده از Hunyuan Large برای درک تصویر و متن. از ورودی چندتصویر + متن با هر وضوحی پشتیبانی میکند و درک بصری چندزبانه را بهبود میبخشد.",
|
|
688
|
+
"hunyuan-large.description": "Hunyuan-large دارای حدود ۳۸۹ میلیارد پارامتر کل و حدود ۵۲ میلیارد فعال است، بزرگترین و قویترین مدل MoE باز در معماری ترنسفورمر.",
|
|
689
|
+
"hunyuan-lite-vision.description": "جدیدترین مدل چندوجهی ۷ میلیاردی با پنجره زمینه ۳۲ هزار، پشتیبانی از چت چندوجهی چینی/انگلیسی، شناسایی اشیاء، درک جداول اسناد و ریاضی چندوجهی، و عملکرد بهتر نسبت به مدلهای ۷ میلیاردی مشابه در چندین معیار.",
|
|
690
|
+
"hunyuan-lite.description": "ارتقاءیافته به معماری MoE با پنجره زمینه ۲۵۶ هزار، پیشتاز در میان بسیاری از مدلهای باز در حوزههای NLP، کد، ریاضی و معیارهای صنعتی.",
|
|
691
|
+
"hunyuan-pro.description": "مدل MoE با تریلیون پارامتر و پنجره زمینه ۳۲ هزار که در ارزیابیها پیشتاز است، در دستورالعملهای پیچیده و استدلال، ریاضی پیشرفته، تماس تابع و ترجمه چندزبانه، مالی، حقوقی و پزشکی عملکرد قوی دارد.",
|
|
692
|
+
"hunyuan-role.description": "جدیدترین مدل نقشآفرینی که بهطور رسمی با دادههای نقشآفرینی تنظیم دقیق شده و عملکرد پایهای قویتری را در سناریوهای نقشآفرینی ارائه میدهد.",
|
|
693
|
+
"hunyuan-standard-256K.description": "با استفاده از مسیریابی بهبودیافته برای کاهش عدم تعادل بار و فروپاشی متخصصان. در زمینههای بلند به دقت ۹۹.۹٪ در آزمون سوزن در انبار کاه دست یافته است. MOE-256K طول و کیفیت زمینه را بیشتر گسترش میدهد.",
|
|
694
|
+
"hunyuan-standard-vision.description": "جدیدترین مدل چندوجهی با پاسخهای چندزبانه و توانایی متعادل در زبان چینی/انگلیسی.",
|
|
695
|
+
"hunyuan-standard.description": "با استفاده از مسیریابی بهبودیافته برای کاهش عدم تعادل بار و فروپاشی متخصصان. در زمینههای بلند به دقت ۹۹.۹٪ در آزمون سوزن در انبار کاه دست یافته است. MOE-32K ارزش بالایی را در پردازش ورودیهای بلند ارائه میدهد.",
|
|
696
|
+
"hunyuan-t1-20250321.description": "تواناییهای متعادل در هنر و علوم پایه را با درک قوی اطلاعات متون بلند ایجاد میکند. از پاسخهای استدلالی برای مسائل ریاضی، منطقی، علمی و کدنویسی در سطوح مختلف پشتیبانی میکند.",
|
|
697
|
+
"hunyuan-t1-20250403.description": "تولید کد در سطح پروژه و کیفیت نوشتار را بهبود میبخشد، درک موضوعات چندمرحلهای و پیروی از دستورالعملهای ToB را تقویت میکند، درک در سطح واژه را بهبود میدهد و مشکلات خروجی ترکیبی ساده/سنتی و چینی/انگلیسی را کاهش میدهد.",
|
|
698
|
+
"hunyuan-t1-20250529.description": "نوشتار خلاقانه و ترکیببندی را بهبود میبخشد، کدنویسی فرانتاند، ریاضی و استدلال منطقی را تقویت میکند و پیروی از دستورالعملها را ارتقاء میدهد.",
|
|
699
|
+
"hunyuan-t1-20250711.description": "ریاضی سخت، منطق و کدنویسی را بهطور چشمگیری بهبود میبخشد، پایداری خروجی را افزایش میدهد و توانایی در متون بلند را ارتقاء میدهد.",
|
|
700
|
+
"hunyuan-t1-latest.description": "مدل تفکر آهسته را در ریاضی سخت، استدلال پیچیده، کدنویسی دشوار، پیروی از دستورالعملها و کیفیت نوشتار خلاقانه بهطور قابل توجهی بهبود میبخشد.",
|
|
701
|
+
"hunyuan-t1-vision-20250619.description": "جدیدترین مدل استدلال عمیق چندوجهی t1-vision با زنجیره تفکر بومی، بهطور قابل توجهی نسبت به نسخه پیشفرض قبلی بهبود یافته است.",
|
|
702
|
+
"hunyuan-t1-vision-20250916.description": "جدیدترین مدل استدلال عمیق t1-vision با بهبودهای عمده در VQA، اتصال بصری، OCR، نمودارها، حل مسائل تصویری و تولید مبتنی بر تصویر، بهعلاوه پشتیبانی قویتر از زبان انگلیسی و زبانهای کممنبع.",
|
|
703
|
+
"hunyuan-turbo-20241223.description": "این نسخه مقیاسپذیری دستورالعمل را برای تعمیم بهتر افزایش میدهد، استدلال در ریاضی/کد/منطق را بهطور قابل توجهی بهبود میبخشد، درک در سطح واژه را ارتقاء میدهد و کیفیت نوشتار را بهبود میبخشد.",
|
|
704
|
+
"hunyuan-turbo-latest.description": "بهبودهای کلی در تجربه کاربری در درک NLP، نوشتار، چت، پرسشوپاسخ، ترجمه و حوزههای تخصصی؛ پاسخهایی شبیهتر به انسان، وضوح بهتر در نیتهای مبهم، تجزیه واژهای بهتر، کیفیت خلاقانه بالاتر و تعاملپذیری بیشتر، و مکالمات چندمرحلهای قویتر.",
|
|
705
|
+
"hunyuan-turbo-vision.description": "مدل پرچمدار نسل بعدی زبان-بینایی با استفاده از معماری جدید MoE، با بهبودهای گسترده در شناسایی، تولید محتوا، پرسشوپاسخ دانشی و استدلال تحلیلی.",
|
|
706
|
+
"hunyuan-turbo.description": "پیشنمایشی از مدل LLM نسل بعدی Hunyuan با معماری جدید MoE، ارائهدهنده استدلال سریعتر و نتایج قویتر نسبت به hunyuan-pro.",
|
|
668
707
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
669
708
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
670
709
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "محیط ابری",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "ایجاد گروهی عاملها",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "ایجاد عامل",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "دریافت اطلاعات عضو",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "دریافت مدلهای موجود",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "نصب مهارت",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "دعوت از عضو",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "خلاصهسازی گفتگو",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "شروع رأیگیری",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "عوامل زیر صحبت میکنند:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "اختصاص دادن",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "وظیفه:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "اختصاص وظایف به:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "عامل مشخص صحبت میکند:",
|
|
75
78
|
"builtins.lobe-group-management.title": "هماهنگکننده گروه",
|
package/locales/fr-FR/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "Statut activé",
|
|
29
29
|
"apikey.list.title": "Liste des clés API",
|
|
30
30
|
"apikey.validation.required": "Ce champ ne peut pas être vide",
|
|
31
|
+
"authModal.description": "Votre session de connexion a expiré. Veuillez vous reconnecter pour continuer à utiliser les fonctionnalités de synchronisation cloud.",
|
|
32
|
+
"authModal.later": "Plus tard",
|
|
33
|
+
"authModal.signIn": "Se reconnecter",
|
|
34
|
+
"authModal.signingIn": "Connexion en cours...",
|
|
35
|
+
"authModal.title": "Session expirée",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "Veuillez confirmer votre mot de passe",
|
|
32
37
|
"betterAuth.errors.emailExists": "Cet e-mail est déjà enregistré. Veuillez vous connecter",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "Veuillez saisir une adresse e-mail ou un nom d'utilisateur valide",
|
|
@@ -396,6 +396,7 @@
|
|
|
396
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
|
|
397
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 est le modèle de raisonnement hybride à long contexte de DeepSeek, prenant en charge les modes de réflexion mixtes et l'intégration d'outils.",
|
|
398
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 est le modèle de raisonnement hybride haute performance de DeepSeek, conçu pour les tâches complexes et l'intégration d'outils.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 est un modèle ayant réalisé des avancées majeures en raisonnement mathématique. Son innovation principale réside dans le mécanisme d'entraînement par « auto-vérification », et il a atteint un niveau de médaille d'or dans plusieurs compétitions mathématiques de haut niveau.",
|
|
399
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 est une variante mise à jour axée sur l'ouverture et un raisonnement plus approfondi.",
|
|
400
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour en accroître la précision.",
|
|
401
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B est un LLM distillé basé sur Llama 3.3 70B, affiné à l'aide des sorties de DeepSeek R1 pour atteindre des performances comparables aux modèles de pointe.",
|
|
@@ -573,6 +574,45 @@
|
|
|
573
574
|
"glm-z1-flashx.description": "Rapide et économique : version Flash avec raisonnement ultra-rapide et haute concurrence.",
|
|
574
575
|
"glm-zero-preview.description": "GLM-Zero-Preview offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.",
|
|
575
576
|
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive pour les tâches complexes nécessitant des réponses et un raisonnement de la plus haute qualité.",
|
|
577
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre des capacités de nouvelle génération, notamment une vitesse exceptionnelle, l'utilisation native d'outils, la génération multimodale et une fenêtre de contexte d’un million de jetons.",
|
|
578
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental est le dernier modèle multimodal expérimental de Google, avec des améliorations notables par rapport aux versions précédentes, notamment en connaissances générales, en code et en gestion de contexte étendu.",
|
|
579
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite est une variante allégée de Gemini, avec le raisonnement désactivé par défaut pour réduire la latence et les coûts, mais pouvant être activé via des paramètres.",
|
|
580
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite propose des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l'utilisation intégrée d'outils, la génération multimodale et une fenêtre de contexte d’un million de jetons.",
|
|
581
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash est le modèle de raisonnement haute performance de Google pour les tâches multimodales étendues.",
|
|
582
|
+
"google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image, niveau gratuit avec quota limité pour la génération multimodale.",
|
|
583
|
+
"google/gemini-2.5-flash-image-preview.description": "Modèle expérimental Gemini 2.5 Flash avec prise en charge de la génération d’images.",
|
|
584
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) est le modèle de génération d’images de Google avec prise en charge des conversations multimodales.",
|
|
585
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite est la variante allégée de Gemini 2.5, optimisée pour la latence et les coûts, idéale pour les scénarios à haut débit.",
|
|
586
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour le raisonnement complexe, le codage, les mathématiques et les sciences. Il intègre un mode « réflexion » pour fournir des réponses plus précises avec un traitement contextuel plus fin.\n\nRemarque : ce modèle existe en deux variantes — avec ou sans réflexion. Le tarif de sortie varie considérablement selon que la réflexion est activée. Si vous choisissez la variante standard (sans le suffixe « :thinking »), le modèle évitera explicitement de générer des jetons de réflexion.\n\nPour activer la réflexion et recevoir des jetons de réflexion, vous devez sélectionner la variante « :thinking », qui entraîne un coût de sortie plus élevé.\n\nGemini 2.5 Flash peut également être configuré via le paramètre « max reasoning tokens » comme documenté (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
587
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour le raisonnement complexe, le codage, les mathématiques et les sciences. Il intègre un mode « réflexion » pour fournir des réponses plus précises avec un traitement contextuel plus fin.\n\nRemarque : ce modèle existe en deux variantes — avec ou sans réflexion. Le tarif de sortie varie considérablement selon que la réflexion est activée. Si vous choisissez la variante standard (sans le suffixe « :thinking »), le modèle évitera explicitement de générer des jetons de réflexion.\n\nPour activer la réflexion et recevoir des jetons de réflexion, vous devez sélectionner la variante « :thinking », qui entraîne un coût de sortie plus élevé.\n\nGemini 2.5 Flash peut également être configuré via le paramètre « max reasoning tokens » comme documenté (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
588
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) est une famille de modèles Google allant de la faible latence au raisonnement haute performance.",
|
|
589
|
+
"google/gemini-2.5-pro-free.description": "Gemini 2.5 Pro, niveau gratuit, offre un quota limité pour la génération multimodale avec contexte long, adapté aux essais et aux flux de travail légers.",
|
|
590
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google pour résoudre des problèmes complexes en code, mathématiques et STEM, et pour analyser de grands ensembles de données, bases de code et documents avec un long contexte.",
|
|
591
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle phare de raisonnement de Google avec prise en charge du contexte long pour les tâches complexes.",
|
|
592
|
+
"google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Image, niveau gratuit avec quota limité pour la génération multimodale.",
|
|
593
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google avec prise en charge des conversations multimodales.",
|
|
594
|
+
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free offre les mêmes capacités de compréhension et de raisonnement multimodal que la version standard, mais avec des limites de quota et de fréquence, ce qui le rend idéal pour les essais et les usages peu fréquents.",
|
|
595
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle de raisonnement multimodal de nouvelle génération de la famille Gemini, capable de comprendre le texte, l’audio, les images et la vidéo, et de gérer des tâches complexes et de grands ensembles de code.",
|
|
596
|
+
"google/gemini-embedding-001.description": "Un modèle d’intégration de texte de pointe avec d’excellentes performances en anglais, en multilingue et en tâches de codage.",
|
|
597
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash offre un traitement multimodal optimisé pour une variété de tâches complexes.",
|
|
598
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro combine les dernières optimisations pour un traitement plus efficace des données multimodales.",
|
|
599
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27B est un modèle de langage généraliste avec de solides performances dans de nombreux scénarios.",
|
|
600
|
+
"google/gemma-2-27b.description": "Gemma 2 est la famille de modèles efficace de Google, adaptée aux applications légères comme au traitement de données complexes.",
|
|
601
|
+
"google/gemma-2-2b-it.description": "Un petit modèle de langage avancé conçu pour les applications en périphérie.",
|
|
602
|
+
"google/gemma-2-9b-it.description": "Gemma 2 9B, développé par Google, offre un suivi efficace des instructions et de bonnes capacités globales.",
|
|
603
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2 est la famille de modèles open source légère de Google pour le traitement de texte.",
|
|
604
|
+
"google/gemma-2-9b.description": "Gemma 2 est la famille de modèles efficace de Google, adaptée aux applications légères comme au traitement de données complexes.",
|
|
605
|
+
"google/gemma-2b-it.description": "Gemma Instruct (2B) fournit une gestion de base des instructions pour les applications légères.",
|
|
606
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12B est un modèle de langage open source de Google établissant une nouvelle référence en matière d'efficacité et de performance.",
|
|
607
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27B est un modèle de langage open source de Google établissant une nouvelle référence en matière d'efficacité et de performance.",
|
|
608
|
+
"google/text-embedding-005.description": "Un modèle d’intégration de texte axé sur l’anglais, optimisé pour les tâches en anglais et en code.",
|
|
609
|
+
"google/text-multilingual-embedding-002.description": "Un modèle d’intégration de texte multilingue optimisé pour les tâches interlinguistiques dans de nombreuses langues.",
|
|
610
|
+
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
|
|
611
|
+
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
|
|
612
|
+
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo pour les tâches de génération et de compréhension de texte, optimisé pour le suivi d'instructions.",
|
|
613
|
+
"gpt-3.5-turbo.description": "GPT 3.5 Turbo pour la génération et la compréhension de texte ; actuellement lié à gpt-3.5-turbo-0125.",
|
|
614
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k est un modèle de génération de texte à haute capacité pour les tâches complexes.",
|
|
615
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo est le modèle efficace d’OpenAI pour le chat et la génération de texte, avec prise en charge de l’appel de fonctions en parallèle.",
|
|
576
616
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
577
617
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
578
618
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "Bac à sable Cloud",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Créer des agents en lot",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "Créer un agent",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Obtenir les informations du membre",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Installer la Compétence",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Inviter un membre",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "Résumer la conversation",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "Lancer un vote",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "Les agents suivants parlent :",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Attribuer",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "tâche :",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Attribution des tâches à :",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "L'agent désigné parle :",
|
|
75
78
|
"builtins.lobe-group-management.title": "Coordinateur de groupe",
|
package/locales/it-IT/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "Stato abilitazione",
|
|
29
29
|
"apikey.list.title": "Elenco Chiavi API",
|
|
30
30
|
"apikey.validation.required": "Questo campo non può essere vuoto",
|
|
31
|
+
"authModal.description": "La tua sessione di accesso è scaduta. Accedi nuovamente per continuare a utilizzare le funzionalità di sincronizzazione cloud.",
|
|
32
|
+
"authModal.later": "Più tardi",
|
|
33
|
+
"authModal.signIn": "Accedi di nuovo",
|
|
34
|
+
"authModal.signingIn": "Accesso in corso...",
|
|
35
|
+
"authModal.title": "Sessione scaduta",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "Conferma la tua password",
|
|
32
37
|
"betterAuth.errors.emailExists": "Questa email è già registrata. Effettua l'accesso",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "Inserisci un indirizzo email o nome utente valido",
|
|
@@ -355,6 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
|
|
358
|
+
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene la capacità di dialogo del modello conversazionale e la potenza di codifica del modello per sviluppatori, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e la comprensione delle istruzioni.",
|
|
358
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
|
|
359
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
360
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
@@ -377,6 +378,7 @@
|
|
|
377
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
|
|
378
379
|
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
|
|
379
380
|
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
|
|
381
|
+
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di ragionamenti prima della risposta finale per migliorare l'accuratezza.",
|
|
380
382
|
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
|
|
381
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
|
|
382
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
|
|
@@ -386,6 +388,7 @@
|
|
|
386
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catene di pensiero, ideale per compiti che richiedono analisi approfondite.",
|
|
387
389
|
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce l'attenzione sparsa per migliorare l'efficienza di addestramento e inferenza su testi lunghi, a un costo inferiore rispetto a deepseek-v3.1.",
|
|
388
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think è un modello completo di pensiero profondo con capacità potenziate di ragionamento a catena lunga.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 è il primo modello ibrido di ragionamento di DeepSeek che integra il pensiero nell'uso degli strumenti. Utilizza un'architettura efficiente per ridurre il calcolo, l'apprendimento per rinforzo su larga scala per potenziare le capacità e dati sintetici su larga scala per rafforzare la generalizzazione. La combinazione di questi tre elementi consente prestazioni paragonabili a GPT-5-High, con una lunghezza di output significativamente ridotta, diminuendo notevolmente il carico computazionale e i tempi di attesa per l'utente.",
|
|
389
392
|
"deepseek-v3.description": "DeepSeek-V3 è un potente modello MoE con 671 miliardi di parametri totali e 37 miliardi attivi per token.",
|
|
390
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small è una versione multimodale leggera, pensata per ambienti con risorse limitate e alta concorrenza.",
|
|
391
394
|
"deepseek-vl2.description": "DeepSeek VL2 è un modello multimodale per la comprensione immagine-testo e domande visive dettagliate.",
|
|
@@ -393,6 +396,7 @@
|
|
|
393
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 è un modello MoE da 685 miliardi di parametri e rappresenta l'ultima iterazione della serie di chat di punta di DeepSeek.\n\nSi basa su [DeepSeek V3](/deepseek/deepseek-chat-v3) e offre prestazioni elevate in vari compiti.",
|
|
394
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 è il modello di ragionamento ibrido a lungo contesto di DeepSeek, che supporta modalità miste di pensiero/non-pensiero e integrazione con strumenti.",
|
|
395
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 è il modello di ragionamento ibrido ad alte prestazioni di DeepSeek, progettato per compiti complessi e integrazione con strumenti.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 è un modello che ha compiuto importanti progressi nelle capacità di ragionamento matematico. La sua innovazione principale risiede nel meccanismo di addestramento \"auto-verifica\" e ha raggiunto livelli da medaglia d'oro in diverse competizioni matematiche di alto livello.",
|
|
396
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 è una variante aggiornata focalizzata sulla disponibilità aperta e su un ragionamento più profondo.",
|
|
397
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 migliora notevolmente il ragionamento utilizzando un numero minimo di dati etichettati e genera una catena di pensiero prima della risposta finale per aumentare l'accuratezza.",
|
|
398
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B è un LLM distillato basato su Llama 3.3 70B, ottimizzato utilizzando gli output di DeepSeek R1 per raggiungere prestazioni competitive con i modelli di frontiera di grandi dimensioni.",
|
|
@@ -431,6 +435,7 @@
|
|
|
431
435
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 potenzia significativamente il ragionamento, migliorando ulteriormente le capacità fondamentali in programmazione, matematica e logica rispetto a Doubao-1.5-thinking-pro, aggiungendo anche la comprensione visiva. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
432
436
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision è un modello visivo di ragionamento profondo che offre una comprensione e un ragionamento multimodale più forti per l'istruzione, la revisione di immagini, l'ispezione/sicurezza e la ricerca AI con domande e risposte. Supporta una finestra contestuale di 256k e fino a 64k token in output.",
|
|
433
437
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6 è un nuovo modello multimodale di ragionamento profondo con modalità auto, thinking e non-thinking. In modalità non-thinking, supera significativamente Doubao-1.5-pro/250115. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
438
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 offre una comprensione multimodale più avanzata e capacità da agente, supporta input di testo/immagine/video e memorizzazione del contesto, garantendo prestazioni eccellenti in compiti complessi.",
|
|
434
439
|
"doubao-seed-code.description": "Doubao-Seed-Code è ottimizzato in profondità per la programmazione agentica, supporta input multimodali (testo/immagine/video) e una finestra contestuale di 256k, è compatibile con l'API Anthropic ed è adatto a flussi di lavoro di programmazione, comprensione visiva e agenti.",
|
|
435
440
|
"doubao-seededit-3-0-i2i-250628.description": "Il modello di immagini Doubao di ByteDance Seed supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Supporta l'editing di immagini guidato da testo, con dimensioni di output tra 512 e 1536 sul lato lungo.",
|
|
436
441
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
|
|
@@ -467,6 +472,7 @@
|
|
|
467
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
|
|
468
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
|
|
469
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi con generazione di immagini di alta qualità e altamente controllabile. Genera immagini a partire da prompt testuali.",
|
|
470
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
|
|
471
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
|
|
472
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
|
|
@@ -474,6 +480,8 @@
|
|
|
474
480
|
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
|
|
475
481
|
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
|
|
476
482
|
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing di immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testi in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con una resa impressionante del testo cinese e stili visivi diversificati.",
|
|
477
485
|
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
|
|
478
486
|
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
|
|
479
487
|
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
|
|
@@ -519,6 +527,40 @@
|
|
|
519
527
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
520
528
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
521
529
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
530
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
|
|
531
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche la conversazione multimodale.",
|
|
532
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.",
|
|
533
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
|
|
534
|
+
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
|
|
535
|
+
"gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite",
|
|
536
|
+
"gemini-pro-latest.description": "Ultima versione di Gemini Pro",
|
|
537
|
+
"gemma-7b-it.description": "Gemma 7B è conveniente per compiti di piccola e media scala.",
|
|
538
|
+
"gemma2-9b-it.description": "Gemma 2 9B è ottimizzato per compiti specifici e integrazione con strumenti.",
|
|
539
|
+
"gemma2.description": "Gemma 2 è il modello efficiente di Google, adatto a casi d'uso che vanno da app leggere a elaborazioni dati complesse.",
|
|
540
|
+
"gemma2:27b.description": "Gemma 2 è il modello efficiente di Google, adatto a casi d'uso che vanno da app leggere a elaborazioni dati complesse.",
|
|
541
|
+
"gemma2:2b.description": "Gemma 2 è il modello efficiente di Google, adatto a casi d'uso che vanno da app leggere a elaborazioni dati complesse.",
|
|
542
|
+
"generalv3.5.description": "Spark Max è la versione più completa, con supporto alla ricerca web e numerosi plugin integrati. Le sue capacità ottimizzate, i ruoli di sistema e le chiamate di funzione offrono prestazioni eccellenti in scenari applicativi complessi.",
|
|
543
|
+
"generalv3.description": "Spark Pro è un LLM ad alte prestazioni ottimizzato per ambiti professionali, con focus su matematica, programmazione, sanità ed educazione. Supporta la ricerca web e plugin integrati come meteo e data. Offre prestazioni elevate e grande efficienza in Q&A complessi, comprensione linguistica e creazione avanzata di testi, rendendolo ideale per usi professionali.",
|
|
544
|
+
"glm-4-0520.description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati con prestazioni eccellenti.",
|
|
545
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 è un modello GLM generale che supporta generazione e comprensione di testo multi-task.",
|
|
546
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat offre prestazioni elevate in semantica, matematica, ragionamento, codice e conoscenza. Supporta anche navigazione web, esecuzione di codice, chiamate a strumenti personalizzati e ragionamento su testi lunghi, con supporto per 26 lingue tra cui giapponese, coreano e tedesco.",
|
|
547
|
+
"glm-4-air-250414.description": "GLM-4-Air è un'opzione ad alto valore con prestazioni vicine a GLM-4, velocità elevata e costi ridotti.",
|
|
548
|
+
"glm-4-air.description": "GLM-4-Air è un'opzione ad alto valore con prestazioni vicine a GLM-4, velocità elevata e costi ridotti.",
|
|
549
|
+
"glm-4-airx.description": "GLM-4-AirX è una variante più efficiente di GLM-4-Air con ragionamento fino a 2,6 volte più veloce.",
|
|
550
|
+
"glm-4-alltools.description": "GLM-4-AllTools è un modello agente versatile ottimizzato per la pianificazione di istruzioni complesse e l'uso di strumenti come navigazione web, spiegazione di codice e generazione di testo, adatto all'esecuzione multi-task.",
|
|
551
|
+
"glm-4-flash-250414.description": "GLM-4-Flash è ideale per compiti semplici: il più veloce e gratuito.",
|
|
552
|
+
"glm-4-flash.description": "GLM-4-Flash è ideale per compiti semplici: il più veloce e gratuito.",
|
|
553
|
+
"glm-4-flashx.description": "GLM-4-FlashX è una versione Flash potenziata con ragionamento ultra-rapido.",
|
|
554
|
+
"glm-4-long.description": "GLM-4-Long supporta input ultra-lunghi per compiti di tipo memoria e l'elaborazione di documenti su larga scala.",
|
|
555
|
+
"glm-4-plus.description": "GLM-4-Plus è un modello di punta ad alta intelligenza con forte gestione di testi lunghi e compiti complessi, e prestazioni complessive migliorate.",
|
|
556
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking è il più potente VLM da ~10B noto, coprendo compiti SOTA come comprensione video, QA su immagini, risoluzione di problemi, OCR, lettura di documenti e grafici, agenti GUI, codifica frontend e grounding. Supera persino Qwen2.5-VL-72B, 8 volte più grande, in molti compiti. Con RL avanzato, utilizza il ragionamento a catena per migliorare accuratezza e ricchezza, superando i modelli tradizionali non pensanti sia nei risultati che nella spiegabilità.",
|
|
557
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking è il più potente VLM da ~10B noto, coprendo compiti SOTA come comprensione video, QA su immagini, risoluzione di problemi, OCR, lettura di documenti e grafici, agenti GUI, codifica frontend e grounding. Supera persino Qwen2.5-VL-72B, 8 volte più grande, in molti compiti. Con RL avanzato, utilizza il ragionamento a catena per migliorare accuratezza e ricchezza, superando i modelli tradizionali non pensanti sia nei risultati che nella spiegabilità.",
|
|
558
|
+
"glm-4.5-air.description": "Edizione leggera di GLM-4.5 che bilancia prestazioni e costi, con modalità di pensiero ibride flessibili.",
|
|
559
|
+
"glm-4.5-airx.description": "Edizione veloce di GLM-4.5-Air con risposte più rapide per usi ad alta scala e velocità.",
|
|
560
|
+
"glm-4.5-flash.description": "Livello gratuito di GLM-4.5 con prestazioni elevate in ragionamento, programmazione e compiti da agente.",
|
|
561
|
+
"glm-4.5-x.description": "Edizione veloce di GLM-4.5, con prestazioni elevate e velocità di generazione fino a 100 token/sec.",
|
|
562
|
+
"glm-4.5.description": "Modello di punta di Zhipu con modalità di pensiero commutabile, che offre SOTA open-source complessivo e fino a 128K di contesto.",
|
|
563
|
+
"glm-4.5v.description": "Il modello di ragionamento visivo di nuova generazione MoE di Zhipu ha 106B parametri totali con 12B attivi, raggiungendo SOTA tra i modelli multimodali open-source di dimensioni simili in compiti su immagini, video, documenti e GUI.",
|
|
522
564
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
523
565
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
524
566
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "Sandbox Cloud",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Crea agenti in blocco",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "Crea agente",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Ottieni informazioni sul membro",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Ottieni modelli disponibili",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Installa Competenza",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Invita membro",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "Riepiloga conversazione",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "Avvia votazione",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "Parlano i seguenti Agenti:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Assegna",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "compito:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Assegnazione attività a:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "Parla l'Agente designato:",
|
|
75
78
|
"builtins.lobe-group-management.title": "Coordinatore del Gruppo",
|
package/locales/ja-JP/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "有効状態",
|
|
29
29
|
"apikey.list.title": "APIキー一覧",
|
|
30
30
|
"apikey.validation.required": "内容を入力してください",
|
|
31
|
+
"authModal.description": "ログインセッションの有効期限が切れました。クラウド同期機能を引き続きご利用いただくには、再度サインインしてください。",
|
|
32
|
+
"authModal.later": "後で",
|
|
33
|
+
"authModal.signIn": "再度サインイン",
|
|
34
|
+
"authModal.signingIn": "サインイン中...",
|
|
35
|
+
"authModal.title": "セッションの有効期限切れ",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "パスワードの確認を入力してください",
|
|
32
37
|
"betterAuth.errors.emailExists": "このメールアドレスは既に登録されています。ログインしてください。",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "有効なメールアドレスを入力してください",
|
|
@@ -388,6 +388,7 @@
|
|
|
388
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1は、複雑な推論とChain-of-Thoughtに優れた次世代推論モデルで、深い分析を必要とするタスクに適しています。",
|
|
389
389
|
"deepseek-v3.2-exp.description": "deepseek-v3.2-expは、長文テキストの学習と推論効率を向上させるスパースアテンションを導入し、deepseek-v3.1よりも低価格で提供されます。",
|
|
390
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Thinkは、長い思考の連鎖に対応した完全な深層思考モデルです。",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2は、DeepSeekが初めて開発したハイブリッド推論モデルで、思考をツールの使用に統合しています。効率的なアーキテクチャにより計算コストを削減し、大規模な強化学習で能力を強化、大量の合成タスクデータで汎化性能を高めています。これら3つの要素の組み合わせにより、GPT-5-Highに匹敵する性能を実現しながら、出力の長さを大幅に短縮し、計算負荷とユーザーの待機時間を大きく削減しています。",
|
|
391
392
|
"deepseek-v3.description": "DeepSeek-V3は、671Bの総パラメータとトークンごとに37Bがアクティブな強力なMoEモデルです。",
|
|
392
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Smallは、リソース制約や高同時接続環境向けの軽量マルチモーダルモデルです。",
|
|
393
394
|
"deepseek-vl2.description": "DeepSeek VL2は、画像と言語の理解および精緻な視覚的質問応答に対応するマルチモーダルモデルです。",
|
|
@@ -395,6 +396,7 @@
|
|
|
395
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3は、685BパラメータのMoEモデルで、DeepSeekのフラッグシップチャットシリーズの最新バージョンです。\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3)を基盤とし、さまざまなタスクで高い性能を発揮します。",
|
|
396
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1は、長文コンテキストに対応したDeepSeekのハイブリッド推論モデルで、思考モードと非思考モードの切り替えやツール統合をサポートします。",
|
|
397
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3は、複雑なタスクやツール統合に対応する高性能ハイブリッド推論モデルです。",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2は、数学的推論能力において大きなブレークスルーを達成したモデルです。最大の革新は「自己検証」トレーニングメカニズムにあり、複数のトップレベルの数学コンテストで金メダルレベルの成績を収めています。",
|
|
398
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528は、オープンアクセスと深い推論に焦点を当てた更新版です。",
|
|
399
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1は、最小限のラベル付きデータで推論能力を大幅に向上させ、最終的な回答の前に思考の連鎖を出力して精度を高めます。",
|
|
400
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70Bは、Llama 3.3 70BをベースにDeepSeek R1の出力でファインチューニングされた蒸留LLMで、大規模最先端モデルに匹敵する性能を実現します。",
|
|
@@ -433,6 +435,7 @@
|
|
|
433
435
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking は、Doubao-1.5-thinking-pro に比べてコーディング、数学、論理推論の中核能力をさらに強化し、視覚理解も追加されています。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
434
436
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision は、教育、画像レビュー、検査・セキュリティ、AI検索QAなどにおいて、より強力なマルチモーダル理解と推論を提供する視覚的深層推論モデルです。256kのコンテキストウィンドウと最大64kの出力トークンに対応します。",
|
|
435
437
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6 は、自動、思考、非思考モードを備えた新しいマルチモーダル深層推論モデルです。非思考モードでは、Doubao-1.5-pro/250115 を大きく上回る性能を発揮します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
438
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8は、マルチモーダル理解とエージェント機能が強化されており、テキスト・画像・動画の入力とコンテキストキャッシュをサポートします。複雑なタスクにおいても優れたパフォーマンスを発揮します。",
|
|
436
439
|
"doubao-seed-code.description": "Doubao-Seed-Code は、エージェント型コーディングに最適化されたモデルで、マルチモーダル入力(テキスト/画像/動画)と256kのコンテキストウィンドウに対応し、Anthropic APIと互換性があります。コーディング、視覚理解、エージェントワークフローに適しています。",
|
|
437
440
|
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed の Doubao 画像モデルは、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストによる画像編集をサポートし、出力サイズは長辺512〜1536の範囲に対応します。",
|
|
438
441
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
@@ -558,6 +561,8 @@
|
|
|
558
561
|
"glm-4.5-x.description": "GLM-4.5 の高速版で、最大100トークン/秒の生成速度で高性能を実現します。",
|
|
559
562
|
"glm-4.5.description": "智谱のフラッグシップモデルで、思考モードの切り替えが可能。オープンソースの中で最先端の性能を誇り、最大128Kのコンテキストに対応します。",
|
|
560
563
|
"glm-4.5v.description": "智谱の次世代MoE視覚推論モデルで、総パラメータ数106B、アクティブ12B。画像、動画、文書理解、GUIタスクにおいて同規模のオープンソースマルチモーダルモデルの中で最先端の性能を実現します。",
|
|
564
|
+
"glm-4.6.description": "Zhipuの最新フラッグシップモデルGLM-4.6(355B)は、先進的なコーディング、長文処理、推論、エージェント機能において前世代を完全に上回ります。特にClaude Sonnet 4と同等のプログラミング能力を持ち、中国国内で最高のコーディングモデルとなっています。",
|
|
565
|
+
"glm-4.7.description": "GLM-4.7はZhipuの最新フラッグシップモデルで、エージェント型コーディングシナリオに最適化されています。コーディング能力、長期タスクの計画、ツールとの連携が強化されており、複数の公開ベンチマークでオープンソースモデルの中でもトップクラスの性能を発揮します。全体的な能力も向上し、より簡潔で自然な応答、没入感のある文章生成が可能です。複雑なエージェントタスクにおいては、ツール呼び出し時の指示追従性が強化され、ArtifactsやAgentic Codingのフロントエンドの美しさや長期タスクの完遂効率も向上しています。",
|
|
561
566
|
"glm-4.description": "GLM-4 は2024年1月にリリースされた旧フラッグシップモデルで、現在はより強力な GLM-4-0520 に置き換えられています。",
|
|
562
567
|
"glm-4v-flash.description": "GLM-4V-Flash は、リアルタイムやバッチ画像処理などの高速分析シナリオに適した、単一画像理解に特化したモデルです。",
|
|
563
568
|
"glm-4v-plus-0111.description": "GLM-4V-Plus は、動画や複数画像の理解に対応し、マルチモーダルタスクに適しています。",
|
|
@@ -568,6 +573,40 @@
|
|
|
568
573
|
"glm-z1-flash.description": "GLM-Z1 シリーズは、論理、数学、プログラミングにおいて優れた複雑推論能力を発揮します。",
|
|
569
574
|
"glm-z1-flashx.description": "高速かつ低コスト:Flash による強化で超高速推論と高い同時実行性を実現します。",
|
|
570
575
|
"glm-zero-preview.description": "GLM-Zero-Preview は、論理、数学、プログラミングにおいて優れた複雑推論能力を発揮します。",
|
|
576
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5はAnthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに対応します。",
|
|
577
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flashは次世代の性能を提供し、優れた速度、ネイティブなツール使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウを備えています。",
|
|
578
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash ExperimentalはGoogleの最新の実験的マルチモーダルAIモデルで、前バージョンに比べて世界知識、コード、長文コンテキスト処理において品質が向上しています。",
|
|
579
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Liteは軽量なGeminiバリアントで、レイテンシとコストを改善するためにデフォルトで思考機能が無効化されていますが、パラメータで有効化可能です。",
|
|
580
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Liteは、優れた速度、組み込みツール使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウなど、次世代の機能を提供します。",
|
|
581
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flashは、拡張されたマルチモーダルタスク向けに設計されたGoogleの高性能推論モデルです。",
|
|
582
|
+
"google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Imageの無料枠では、制限付きのマルチモーダル生成が可能です。",
|
|
583
|
+
"google/gemini-2.5-flash-image-preview.description": "Gemini 2.5 Flashの実験的モデルで、画像生成をサポートしています。",
|
|
584
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image(Nano Banana)は、マルチモーダル会話をサポートするGoogleの画像生成モデルです。",
|
|
585
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Liteは、レイテンシとコストに最適化された軽量バリアントで、高スループットなシナリオに適しています。",
|
|
586
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flashは、推論、コーディング、数学、科学タスク向けに構築されたGoogleの最先端フラッグシップモデルです。「思考」機能を内蔵しており、より高精度な応答と精緻なコンテキスト処理を実現します。\n\n注:このモデルには「思考あり」と「思考なし」の2つのバリアントがあります。思考が有効かどうかで出力価格が大きく異なります。標準バリアント(「:thinking」サフィックスなし)を選択した場合、モデルは思考トークンの生成を明示的に回避します。\n\n思考を使用し、思考トークンを受け取るには「:thinking」バリアントを選択する必要があり、思考出力の価格が高くなります。\n\nまた、「max reasoning tokens」パラメータで構成可能です(https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。",
|
|
587
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flashは、推論、コーディング、数学、科学タスク向けに構築されたGoogleの最先端フラッグシップモデルです。「思考」機能を内蔵しており、より高精度な応答と精緻なコンテキスト処理を実現します。\n\n注:このモデルには「思考あり」と「思考なし」の2つのバリアントがあります。思考が有効かどうかで出力価格が大きく異なります。標準バリアント(「:thinking」サフィックスなし)を選択した場合、モデルは思考トークンの生成を明示的に回避します。\n\n思考を使用し、思考トークンを受け取るには「:thinking」バリアントを選択する必要があり、思考出力の価格が高くなります。\n\nまた、「max reasoning tokens」パラメータで構成可能です(https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。",
|
|
588
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash(Lite/Pro/Flash)は、低レイテンシから高性能推論までをカバーするGoogleのモデルファミリーです。",
|
|
589
|
+
"google/gemini-2.5-pro-free.description": "Gemini 2.5 Proの無料枠では、制限付きのマルチモーダル長文コンテキスト処理が可能で、試用や軽量なワークフローに適しています。",
|
|
590
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Previewは、コード、数学、STEM分野の複雑な問題に対する推論や、大規模データセット、コードベース、長文ドキュメントの分析に最適なGoogleの最先端思考モデルです。",
|
|
591
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Proは、複雑なタスクに対応する長文コンテキストサポートを備えたGoogleのフラッグシップ推論モデルです。",
|
|
592
|
+
"google/gemini-3-pro-image-preview-free.description": "Gemini 3 Pro Imageの無料枠では、制限付きのマルチモーダル生成が可能です。",
|
|
593
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、マルチモーダル会話をサポートするGoogleの画像生成モデルです。",
|
|
594
|
+
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Freeは、標準版と同等のマルチモーダル理解と推論を提供しますが、クォータとレート制限があるため、試用や低頻度の使用に適しています。",
|
|
595
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Proは、Geminiファミリーの次世代マルチモーダル推論モデルで、テキスト、音声、画像、動画を理解し、複雑なタスクや大規模コードベースを処理できます。",
|
|
596
|
+
"google/gemini-embedding-001.description": "英語、多言語、コードタスクにおいて高性能を発揮する最先端の埋め込みモデルです。",
|
|
597
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flashは、複雑なタスクに対応する最適化されたマルチモーダル処理を提供します。",
|
|
598
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Proは、マルチモーダルデータ処理の効率を高める最新の最適化を組み合わせたモデルです。",
|
|
599
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27Bは、さまざまなシナリオで高性能を発揮する汎用LLMです。",
|
|
600
|
+
"google/gemma-2-27b.description": "Gemma 2は、軽量アプリから複雑なデータ処理まで対応するGoogleの効率的なモデルファミリーです。",
|
|
601
|
+
"google/gemma-2-2b-it.description": "エッジアプリケーション向けに設計された高度な小型言語モデルです。",
|
|
602
|
+
"google/gemma-2-9b-it.description": "Googleが開発したGemma 2 9Bは、効率的な指示追従と堅実な全体性能を提供します。",
|
|
603
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2は、Googleの軽量オープンソーステキストモデルファミリーです。",
|
|
604
|
+
"google/gemma-2-9b.description": "Gemma 2は、軽量アプリから複雑なデータ処理まで対応するGoogleの効率的なモデルファミリーです。",
|
|
605
|
+
"google/gemma-2b-it.description": "Gemma Instruct(2B)は、軽量アプリケーション向けの基本的な指示処理を提供します。",
|
|
606
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12Bは、効率と性能の新たな基準を打ち立てるGoogleのオープンソース言語モデルです。",
|
|
607
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27Bは、効率と性能の新たな基準を打ち立てるGoogleのオープンソース言語モデルです。",
|
|
608
|
+
"google/text-embedding-005.description": "コードおよび英語タスクに最適化された英語中心のテキスト埋め込みモデルです。",
|
|
609
|
+
"google/text-multilingual-embedding-002.description": "多言語間タスクに最適化された多言語テキスト埋め込みモデルです。",
|
|
571
610
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "視覚理解エージェント向けの高度な画像推論機能。",
|
|
572
611
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最先端の多言語対応オープンソース Llama モデルであり、非常に低コストで 405B に近い性能を実現します。Transformer ベースで、SFT および RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化されており、業界ベンチマークで多くのオープン・クローズドチャットモデルを上回ります。知識カットオフ:2023年12月。",
|
|
573
612
|
"meta/Meta-Llama-3-70B-Instruct.description": "推論、コーディング、幅広い言語タスクに優れた 70B パラメータの強力なモデル。",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "クラウドサンドボックス",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "エージェントを一括作成",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "エージェントを作成",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "メンバー情報を取得",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "利用可能なモデルを取得",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "スキルをインストール",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "メンバーを招待",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "会話を要約",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "投票を開始",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "次のエージェントが話します:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "割り当てる",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "タスク:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "タスクの割り当て先:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "指定されたエージェントが話します:",
|
|
75
78
|
"builtins.lobe-group-management.title": "チームの調整",
|