@lobehub/chat 1.118.0 → 1.118.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +8 -0
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/chat.json +6 -1
- package/locales/ar/error.json +8 -8
- package/locales/ar/models.json +21 -0
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/chat.json +6 -1
- package/locales/bg-BG/error.json +8 -8
- package/locales/bg-BG/models.json +21 -0
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/chat.json +6 -1
- package/locales/de-DE/error.json +7 -7
- package/locales/de-DE/models.json +21 -0
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/chat.json +6 -1
- package/locales/en-US/error.json +4 -4
- package/locales/en-US/models.json +21 -0
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/chat.json +6 -1
- package/locales/es-ES/error.json +9 -9
- package/locales/es-ES/models.json +21 -0
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/chat.json +6 -1
- package/locales/fa-IR/error.json +9 -9
- package/locales/fa-IR/models.json +21 -0
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/chat.json +6 -1
- package/locales/fr-FR/error.json +9 -9
- package/locales/fr-FR/models.json +21 -0
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/chat.json +6 -1
- package/locales/it-IT/error.json +7 -7
- package/locales/it-IT/models.json +21 -0
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/chat.json +6 -1
- package/locales/ja-JP/error.json +8 -8
- package/locales/ja-JP/models.json +21 -0
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/chat.json +6 -1
- package/locales/ko-KR/error.json +8 -8
- package/locales/ko-KR/models.json +21 -0
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/chat.json +6 -1
- package/locales/nl-NL/error.json +8 -8
- package/locales/nl-NL/models.json +21 -0
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/chat.json +6 -1
- package/locales/pl-PL/error.json +9 -9
- package/locales/pl-PL/models.json +21 -0
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/chat.json +6 -1
- package/locales/pt-BR/error.json +8 -8
- package/locales/pt-BR/models.json +21 -0
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/chat.json +6 -1
- package/locales/ru-RU/error.json +7 -7
- package/locales/ru-RU/models.json +21 -0
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/chat.json +6 -1
- package/locales/tr-TR/error.json +9 -9
- package/locales/tr-TR/models.json +21 -0
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/chat.json +6 -1
- package/locales/vi-VN/models.json +21 -0
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/chat.json +6 -1
- package/locales/zh-CN/models.json +21 -0
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/chat.json +6 -1
- package/locales/zh-TW/error.json +4 -4
- package/locales/zh-TW/models.json +21 -0
- package/locales/zh-TW/providers.json +3 -0
- package/next.config.ts +22 -6
- package/package.json +1 -1
- package/packages/model-runtime/src/google/index.ts +17 -3
- package/packages/model-runtime/src/types/chat.ts +4 -0
- package/packages/model-runtime/src/xai/index.ts +1 -1
- package/packages/types/src/agent/chatConfig.ts +1 -0
- package/packages/types/src/aiModel.ts +2 -1
- package/src/config/aiModels/google.ts +8 -6
- package/src/config/aiModels/xai.ts +25 -0
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
- package/src/locales/default/chat.ts +4 -0
- package/src/services/chat.ts +4 -0
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 is a MoE model developed in-house by Deep Seek Company. Its performance surpasses that of other open-source models such as Qwen2.5-72B and Llama-3.1-405B in multiple assessments, and it stands on par with the world's top proprietary models like GPT-4o and Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: Next-generation reasoning model, enhancing complex reasoning and chain-of-thought capabilities, ideal for tasks requiring in-depth analysis."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Model provider: sophnet platform. DeepSeek V3 Fast is the high-TPS ultra-fast version of DeepSeek V3 0324, fully powered without quantization, featuring enhanced coding and mathematical capabilities for faster response!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Advanced image reasoning capabilities suitable for visual understanding agent applications."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: A versatile Transformer model suitable for conversational and generative tasks."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to a 405B model at a very low cost. Based on the Transformer architecture, it enhances usability and safety through supervised fine-tuning (SFT) and reinforcement learning from human feedback (RLHF). Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on various industry benchmarks. Knowledge cutoff date is December 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: A large-scale model based on Mixture-of-Experts, offering an efficient expert activation strategy for superior inference performance."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "A brand-new self-developed inference model. Globally leading: 80K reasoning chains x 1M input, performance comparable to top overseas models."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B is a Mixture of Experts (MoE) model that introduces a \"Hybrid Reasoning Mode,\" allowing users to seamlessly switch between \"Thinking Mode\" and \"Non-Thinking Mode.\" It supports understanding and reasoning in 119 languages and dialects and possesses powerful tool invocation capabilities. In comprehensive benchmarks covering overall ability, coding and mathematics, multilingual proficiency, knowledge, and reasoning, it competes with leading large models on the market such as DeepSeek R1, OpenAI o1, o3-mini, Grok 3, and Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: A model optimized for advanced reasoning and dialogue instructions, featuring a mixture-of-experts architecture to maintain inference efficiency at large scale."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B is a dense model that introduces a \"Hybrid Reasoning Mode,\" enabling users to seamlessly switch between \"Thinking Mode\" and \"Non-Thinking Mode.\" Thanks to architectural improvements, increased training data, and more efficient training methods, its overall performance is comparable to that of Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It features built-in \"thinking\" capabilities, enabling it to provide responses with higher accuracy and more nuanced contextual understanding.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly depending on whether the thinking capability is activated. If you choose the standard variant (without the \":thinking\" suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the \":thinking\" variant, which incurs higher pricing for thinking outputs.\n\nAdditionally, Gemini 2.5 Flash can be configured via the \"max tokens for reasoning\" parameter, as detailed in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash experimental model, supporting image generation."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash experimental model, supporting image generation."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B is an open-source large language model released by OpenAI, utilizing MXFP4 quantization technology. It is suitable for running on high-end consumer GPUs or Apple Silicon Macs. This model excels in dialogue generation, code writing, and reasoning tasks, supporting function calls and tool usage."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 quantized Transformer architecture, delivering strong performance even under resource constraints."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B is a large open-source language model released by OpenAI, employing MXFP4 quantization technology as a flagship model. It requires multi-GPU or high-performance workstation environments to operate and delivers outstanding performance in complex reasoning, code generation, and multilingual processing, supporting advanced function calls and tool integration."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix provides access to various AI models through a unified API interface."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash is a permissionless cloud resource marketplace with competitive pricing compared to traditional cloud providers."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic is a company focused on AI research and development, offering a range of advanced language models such as Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus, and Claude 3 Haiku. These models achieve an ideal balance between intelligence, speed, and cost, suitable for various applications from enterprise workloads to rapid-response scenarios. Claude 3.5 Sonnet, as their latest model, has excelled in multiple evaluations while maintaining a high cost-performance ratio."
|
16
19
|
},
|
package/locales/es-ES/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Interruptor de pensamiento profundo"
|
54
54
|
},
|
55
|
-
"title": "Funcionalidad de extensión del modelo"
|
55
|
+
"title": "Funcionalidad de extensión del modelo",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Al activarlo, se analizarán automáticamente los enlaces web para obtener el contenido contextual real de la página",
|
58
|
+
"title": "Extraer contenido del enlace web"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "El asistente solo recordará los últimos {{count}} mensajes"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Escritura en caché de entrada",
|
126
130
|
"output": "Salida",
|
127
131
|
"outputAudio": "Salida de audio",
|
132
|
+
"outputImage": "Salida de imagen",
|
128
133
|
"outputText": "Salida de texto",
|
129
134
|
"outputTitle": "Detalles de salida",
|
130
135
|
"reasoning": "Razonamiento profundo",
|
package/locales/es-ES/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "El contenido de la solicitud actual excede la longitud que el modelo puede procesar. Por favor, reduzca la cantidad de contenido y vuelva a intentarlo.",
|
87
87
|
"FreePlanLimit": "Actualmente eres un usuario gratuito y no puedes utilizar esta función. Por favor, actualiza a un plan de pago para seguir utilizando.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Su contenido contiene
|
90
|
-
"IMAGE_SAFETY": "
|
91
|
-
"LANGUAGE": "El idioma que está
|
92
|
-
"OTHER": "El contenido
|
93
|
-
"PROHIBITED_CONTENT": "Su
|
94
|
-
"RECITATION": "Su contenido
|
95
|
-
"SAFETY": "Su contenido
|
96
|
-
"SPII": "Su contenido
|
97
|
-
"default": "Contenido bloqueado: {{blockReason}}
|
89
|
+
"BLOCKLIST": "Su contenido contiene términos prohibidos. Revíselo y modifique su entrada antes de intentarlo de nuevo.",
|
90
|
+
"IMAGE_SAFETY": "La generación de la imagen fue bloqueada por motivos de seguridad. Intente modificar su petición de generación de imágenes.",
|
91
|
+
"LANGUAGE": "El idioma que está usando no está soportado por el momento. Por favor, intente en inglés u otro idioma compatible.",
|
92
|
+
"OTHER": "El contenido fue bloqueado por una razón desconocida. Intente reformular su solicitud.",
|
93
|
+
"PROHIBITED_CONTENT": "Su petición podría contener contenido prohibido. Ajuste su solicitud para garantizar que cumple las normas de uso.",
|
94
|
+
"RECITATION": "Su contenido fue bloqueado por posibles problemas de derechos de autor. Intente usar contenido original o reformule su solicitud.",
|
95
|
+
"SAFETY": "Su contenido fue bloqueado por razones de seguridad. Ajuste su solicitud para evitar incluir material potencialmente dañino o inapropiado.",
|
96
|
+
"SPII": "Su contenido podría contener información personal sensible. Para proteger la privacidad, elimine la información sensible y vuelva a intentarlo.",
|
97
|
+
"default": "Contenido bloqueado: {{blockReason}}. Ajuste su solicitud y vuelva a intentarlo."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Lo sentimos, la cuota de esta clave ha alcanzado su límite. Por favor, verifique si el saldo de su cuenta es suficiente o aumente la cuota de la clave y vuelva a intentarlo.",
|
100
100
|
"InvalidAccessCode": "La contraseña no es válida o está vacía. Por favor, introduce una contraseña de acceso válida o añade una clave API personalizada",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 es un modelo MoE desarrollado internamente por la empresa DeepSeek. Los resultados de DeepSeek-V3 en múltiples evaluaciones superan a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B, y su rendimiento es comparable al de los modelos cerrados de primer nivel mundial como GPT-4o y Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: modelo de inferencia de próxima generación, mejora la capacidad de razonamiento complejo y pensamiento en cadena, adecuado para tareas que requieren análisis profundo."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Proveedor del modelo: plataforma sophnet. DeepSeek V3 Fast es la versión de alta velocidad y alto TPS de DeepSeek V3 0324, completamente sin cuantificación, con mayor capacidad en código y matemáticas, ¡y respuesta más rápida!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Capacidad avanzada de razonamiento de imágenes para aplicaciones de agentes de comprensión visual."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: modelo Transformer de gran versatilidad, adecuado para tareas de diálogo y generación."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Modelo de texto ajustado por instrucciones de Llama 3.1, optimizado para casos de uso de diálogos multilingües, que se destaca en muchos modelos de chat de código abierto y cerrados en benchmarks de la industria comunes."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 es el modelo de lenguaje de código abierto multilingüe más avanzado de la serie Llama, que ofrece un rendimiento comparable al modelo de 405B a un costo extremadamente bajo. Basado en la estructura Transformer, y mejorado en utilidad y seguridad a través de ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF). Su versión ajustada por instrucciones está optimizada para diálogos multilingües, superando a muchos modelos de chat de código abierto y cerrados en múltiples benchmarks de la industria. La fecha límite de conocimiento es diciembre de 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: modelo a gran escala basado en Mixture-of-Experts, que ofrece una estrategia eficiente de activación de expertos para un rendimiento sobresaliente en inferencia."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Modelo de inferencia de desarrollo propio completamente nuevo. Líder mundial: 80K cadenas de pensamiento x 1M de entradas, con un rendimiento comparable a los modelos de vanguardia internacionales."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B es un modelo MoE (modelo de expertos mixtos) que introduce el “modo de razonamiento mixto”, permitiendo a los usuarios cambiar sin problemas entre el “modo reflexivo” y el “modo no reflexivo”. Soporta la comprensión y el razonamiento en 119 idiomas y dialectos, y cuenta con una potente capacidad de invocación de herramientas. En pruebas de referencia que evalúan capacidades generales, código y matemáticas, multilingüismo, conocimiento y razonamiento, compite con los principales modelos del mercado como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 y Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: modelo optimizado para razonamiento avanzado e instrucciones de diálogo, con arquitectura de expertos mixtos para mantener la eficiencia en inferencia con gran cantidad de parámetros."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B es un modelo denso (Dense Model) que introduce el “modo de razonamiento mixto”, permitiendo a los usuarios cambiar sin problemas entre el “modo reflexivo” y el “modo no reflexivo”. Gracias a mejoras en la arquitectura del modelo, aumento de datos de entrenamiento y métodos de entrenamiento más eficientes, su rendimiento general es comparable al de Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para tareas avanzadas de razonamiento, codificación, matemáticas y ciencias. Incluye una capacidad incorporada de \"pensamiento\" que le permite proporcionar respuestas con mayor precisión y un manejo detallado del contexto.\n\nNota: este modelo tiene dos variantes: con pensamiento y sin pensamiento. La tarificación de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo \":thinking\"), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe seleccionar la variante \":thinking\", lo que generará una tarificación más alta para la salida de pensamiento.\n\nAdemás, Gemini 2.5 Flash se puede configurar mediante el parámetro \"máximo de tokens para razonamiento\", como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para razonamiento avanzado, codificación, matemáticas y tareas científicas. Incluye la capacidad de 'pensar' incorporada, lo que le permite proporcionar respuestas con mayor precisión y un manejo más detallado del contexto.\n\nNota: Este modelo tiene dos variantes: con pensamiento y sin pensamiento. La fijación de precios de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo ':thinking'), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe elegir la variante ':thinking', lo que resultará en un precio de salida de pensamiento más alto.\n\nAdemás, Gemini 2.5 Flash se puede configurar a través del parámetro 'número máximo de tokens de razonamiento', como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1533,6 +1551,9 @@
|
|
1533
1551
|
"gpt-oss": {
|
1534
1552
|
"description": "GPT-OSS 20B es un modelo de lenguaje abierto lanzado por OpenAI, que utiliza la tecnología de cuantificación MXFP4, adecuado para ejecutarse en GPU de consumo de alta gama o en Mac con Apple Silicon. Este modelo destaca en la generación de diálogos, escritura de código y tareas de razonamiento, y soporta llamadas a funciones y uso de herramientas."
|
1535
1553
|
},
|
1554
|
+
"gpt-oss-120b": {
|
1555
|
+
"description": "GPT-OSS-120B MXFP4: estructura Transformer cuantificada que mantiene un rendimiento sólido incluso con recursos limitados."
|
1556
|
+
},
|
1536
1557
|
"gpt-oss:120b": {
|
1537
1558
|
"description": "GPT-OSS 120B es un modelo de lenguaje abierto de gran escala lanzado por OpenAI, que emplea la tecnología de cuantificación MXFP4, siendo un modelo insignia. Requiere múltiples GPU o estaciones de trabajo de alto rendimiento para su ejecución, y ofrece un rendimiento sobresaliente en razonamiento complejo, generación de código y procesamiento multilingüe, soportando llamadas avanzadas a funciones e integración de herramientas."
|
1538
1559
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix ofrece acceso a múltiples modelos de IA a través de una interfaz API unificada."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash es un mercado de recursos en la nube sin necesidad de permisos, con precios competitivos en comparación con los proveedores de nube tradicionales."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic es una empresa centrada en la investigación y desarrollo de inteligencia artificial, que ofrece una serie de modelos de lenguaje avanzados, como Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus y Claude 3 Haiku. Estos modelos logran un equilibrio ideal entre inteligencia, velocidad y costo, adecuados para una variedad de escenarios de aplicación, desde cargas de trabajo empresariales hasta respuestas rápidas. Claude 3.5 Sonnet, como su modelo más reciente, ha demostrado un rendimiento excepcional en múltiples evaluaciones, manteniendo una alta relación calidad-precio."
|
16
19
|
},
|
package/locales/fa-IR/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "کلید تفکر عمیق"
|
54
54
|
},
|
55
|
-
"title": "ویژگیهای گسترش مدل"
|
55
|
+
"title": "ویژگیهای گسترش مدل",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "با فعالسازی، لینکهای وب بهطور خودکار تجزیه میشوند تا محتوای واقعی زمینه وبسایت بهدست آید",
|
58
|
+
"title": "استخراج محتوای لینک وب"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "دستیار فقط آخرین {{count}} پیام را به خاطر خواهد سپرد"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "ذخیره ورودی نوشتن",
|
126
130
|
"output": "خروجی",
|
127
131
|
"outputAudio": "خروجی صوتی",
|
132
|
+
"outputImage": "خروجی تصویر",
|
128
133
|
"outputText": "خروجی متنی",
|
129
134
|
"outputTitle": "جزئیات خروجی",
|
130
135
|
"reasoning": "تفکر عمیق",
|
package/locales/fa-IR/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "محتوای درخواست فعلی از طول قابل پردازش مدل فراتر رفته است، لطفاً حجم محتوا را کاهش داده و دوباره تلاش کنید",
|
87
87
|
"FreePlanLimit": "شما در حال حاضر کاربر رایگان هستید و نمیتوانید از این قابلیت استفاده کنید، لطفاً به یک طرح پولی ارتقا دهید تا ادامه دهید",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "محتوای شما
|
90
|
-
"IMAGE_SAFETY": "تولید تصویر
|
91
|
-
"LANGUAGE": "
|
92
|
-
"OTHER": "
|
93
|
-
"PROHIBITED_CONTENT": "درخواست شما ممکن است شامل محتوای ممنوعه باشد. لطفاً
|
94
|
-
"RECITATION": "محتوای شما
|
95
|
-
"SAFETY": "محتوای شما
|
96
|
-
"SPII": "محتوای شما ممکن است شامل اطلاعات حساس
|
97
|
-
"default": "محتوا مسدود شد: {{blockReason}}
|
89
|
+
"BLOCKLIST": "محتوای شما شامل واژگان ممنوعه است. لطفاً ورودی خود را بررسی و اصلاح کرده و دوباره تلاش کنید.",
|
90
|
+
"IMAGE_SAFETY": "تولید تصویر بهدلیل ملاحظات ایمنی مسدود شد. لطفاً درخواست تولید تصویر خود را اصلاح کرده و مجدداً تلاش کنید.",
|
91
|
+
"LANGUAGE": "زبانی که استفاده کردهاید در حال حاضر پشتیبانی نمیشود. لطفاً دوباره به زبان انگلیسی یا یکی از زبانهای پشتیبانیشده سؤال خود را مطرح کنید.",
|
92
|
+
"OTHER": "محتوا به دلایل نامشخص مسدود شده است. لطفاً درخواست خود را به شکل دیگری بازنویسی کنید.",
|
93
|
+
"PROHIBITED_CONTENT": "درخواست شما ممکن است شامل محتوای ممنوعه باشد. لطفاً آن را تنظیم کنید تا با دستورالعملهای استفاده مطابقت داشته باشد.",
|
94
|
+
"RECITATION": "محتوای شما بهدلیل احتمال نقض حقوق تکثیر مسدود شده است. لطفاً از محتوای اصلی استفاده کنید یا درخواست خود را بازنویسی کنید.",
|
95
|
+
"SAFETY": "محتوای شما بهدلیل سیاستهای ایمنی مسدود شده است. لطفاً درخواست خود را اصلاح کنید تا شامل محتوای مضر یا نامناسب نباشد.",
|
96
|
+
"SPII": "محتوای شما ممکن است شامل اطلاعات هویتی حساس فردی باشد. برای محافظت از حریم خصوصی، لطفاً اطلاعات حساس را حذف کرده و دوباره تلاش کنید.",
|
97
|
+
"default": "محتوا مسدود شد: {{blockReason}}。لطفاً محتوای درخواست خود را اصلاح کرده و دوباره تلاش کنید."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "متأسفیم، سهمیه این کلید به حداکثر رسیده است، لطفاً موجودی حساب خود را بررسی کرده یا سهمیه کلید را افزایش دهید و دوباره تلاش کنید",
|
100
100
|
"InvalidAccessCode": "رمز عبور نادرست یا خالی است، لطفاً رمز عبور صحیح را وارد کنید یا API Key سفارشی اضافه کنید",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابیهای متعدد DeepSeek-V3 از مدلهای متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدلهای بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری میکند."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که تواناییهای استدلال پیچیده و تفکر زنجیرهای را بهبود میبخشد و برای وظایف نیازمند تحلیل عمیق مناسب است."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "تأمینکننده مدل: پلتفرم sophnet. DeepSeek V3 Fast نسخهای با TPS بالا و سرعت بسیار زیاد از نسخه DeepSeek V3 0324 است، بدون کمیتسازی، با تواناییهای کد و ریاضی قویتر و پاسخدهی سریعتر!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "توانایی استدلال تصویری پیشرفته برای برنامههای نمایندگی درک بصری."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: مدل ترنسفورمر چندمنظوره که برای مکالمه و وظایف تولید محتوا مناسب است."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "لاما 3.3 پیشرفتهترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینهای بسیار کم، عملکردی مشابه مدل 405B را ارائه میدهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینهسازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدلهای چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: مدل بزرگ مبتنی بر معماری Mixture-of-Experts که استراتژی فعالسازی کارآمد کارشناسان را برای عملکرد برتر در استنتاج ارائه میدهد."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "مدل استنتاج کاملاً توسعهیافته داخلی. پیشرو در جهان: ۸۰ هزار زنجیره فکری در برابر ۱ میلیون ورودی، عملکردی برابر با مدلهای برتر خارجی."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B، مدل MoE (متخصص ترکیبی)، حالت «استدلال ترکیبی» را معرفی کرده است که به کاربران امکان میدهد بهطور یکپارچه بین «حالت تفکر» و «حالت غیرتفکر» جابجا شوند. این مدل از درک و استدلال در ۱۱۹ زبان و گویش پشتیبانی میکند و دارای قابلیتهای قدرتمند فراخوانی ابزار است. در آزمونهای معیار مختلف از جمله تواناییهای جامع، کد نویسی و ریاضیات، چندزبانه، دانش و استدلال، این مدل میتواند با مدلهای پیشرو بازار مانند DeepSeek R1، OpenAI o1، o3-mini، Grok 3 و Google Gemini 2.5 Pro رقابت کند."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: مدلی بهینهشده برای استدلال پیشرفته و دستورهای مکالمه با معماری کارشناسان ترکیبی که کارایی استنتاج را در پارامترهای بزرگ حفظ میکند."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B، مدل متراکم (Dense Model)، حالت «استدلال ترکیبی» را معرفی کرده است که به کاربران امکان میدهد بهطور یکپارچه بین «حالت تفکر» و «حالت غیرتفکر» جابجا شوند. به دلیل بهبود ساختار مدل، افزایش دادههای آموزشی و روشهای مؤثرتر آموزش، عملکرد کلی این مدل با Qwen2.5-72B قابل مقایسه است."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash پیشرفتهترین مدل اصلی گوگل است که بهطور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن امکان میدهد پاسخهایی با دقت بالاتر و پردازش دقیقتر زمینه ارائه دهد.\n\nتوجه: این مدل دو نسخه دارد: تفکری و غیرتفکری. قیمتگذاری خروجی به طور قابل توجهی بسته به فعال بودن قابلیت تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل بهطور صریح از تولید توکنهای تفکر خودداری میکند.\n\nبرای بهرهمندی از قابلیت تفکر و دریافت توکنهای تفکر، باید نسخه «:thinking» را انتخاب کنید که منجر به قیمتگذاری بالاتر برای خروجی تفکر میشود.\n\nعلاوه بر این، Gemini 2.5 Flash را میتوان از طریق پارامتر «حداکثر توکنهای استدلال» پیکربندی کرد، همانطور که در مستندات آمده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه میدهد پاسخهایی با دقت بالاتر و پردازش زمینهای دقیقتری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمتگذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکنهای تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکنهای تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمتگذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash میتواند از طریق پارامتر «حداکثر تعداد توکنهای استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B یک مدل زبان بزرگ متنباز منتشر شده توسط OpenAI است که از فناوری کوانتیزاسیون MXFP4 استفاده میکند و برای اجرا روی GPUهای مصرفی پیشرفته یا مکهای Apple Silicon مناسب است. این مدل در تولید گفتگو، نوشتن کد و وظایف استدلال عملکرد برجستهای دارد و از فراخوانی توابع و استفاده از ابزارها پشتیبانی میکند."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4: ساختار ترنسفورمر کوانتیزه شده که حتی در منابع محدود عملکرد قوی خود را حفظ میکند."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B یک مدل زبان بزرگ متنباز منتشر شده توسط OpenAI است که از فناوری کوانتیزاسیون MXFP4 بهره میبرد و به عنوان مدل پرچمدار شناخته میشود. این مدل نیازمند محیطی با چند GPU یا ایستگاه کاری با عملکرد بالا برای اجرا است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکردی برجسته دارد و از فراخوانی توابع پیشرفته و یکپارچهسازی ابزارها پشتیبانی میکند."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix دسترسی به مدلهای مختلف هوش مصنوعی را از طریق یک رابط برنامهنویسی کاربردی (API) یکپارچه فراهم میکند."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash یک بازار منابع ابری بدون نیاز به مجوز است که قیمتگذاری آن در مقایسه با ارائهدهندگان ابری سنتی رقابتی است."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic یک شرکت متمرکز بر تحقیق و توسعه هوش مصنوعی است که مجموعهای از مدلهای پیشرفته زبان مانند Claude 3.5 Sonnet، Claude 3 Sonnet، Claude 3 Opus و Claude 3 Haiku را ارائه میدهد. این مدلها تعادلی ایدهآل بین هوشمندی، سرعت و هزینه برقرار میکنند و برای انواع کاربردها از بارهای کاری در سطح سازمانی تا پاسخهای سریع مناسب هستند. Claude 3.5 Sonnet به عنوان جدیدترین مدل آن، در ارزیابیهای متعدد عملکرد برجستهای داشته و در عین حال نسبت هزینه به عملکرد بالایی را حفظ کرده است."
|
16
19
|
},
|
package/locales/fr-FR/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Interrupteur de réflexion approfondie"
|
54
54
|
},
|
55
|
-
"title": "Fonctionnalités d'extension du modèle"
|
55
|
+
"title": "Fonctionnalités d'extension du modèle",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Une fois activé, il analysera automatiquement les liens web pour obtenir le contenu contextuel réel de la page web",
|
58
|
+
"title": "Extraction du contenu des liens web"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "L'assistant ne se souviendra que des {{count}} derniers messages"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Écriture de cache d'entrée",
|
126
130
|
"output": "Sortie",
|
127
131
|
"outputAudio": "Sortie audio",
|
132
|
+
"outputImage": "Sortie d'image",
|
128
133
|
"outputText": "Sortie texte",
|
129
134
|
"outputTitle": "Détails de la sortie",
|
130
135
|
"reasoning": "Raisonnement approfondi",
|
package/locales/fr-FR/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "Le contenu de la demande actuelle dépasse la longueur que le modèle peut traiter. Veuillez réduire la quantité de contenu et réessayer.",
|
87
87
|
"FreePlanLimit": "Vous êtes actuellement un utilisateur gratuit et ne pouvez pas utiliser cette fonction. Veuillez passer à un plan payant pour continuer à l'utiliser.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Votre contenu contient des
|
90
|
-
"IMAGE_SAFETY": "
|
91
|
-
"LANGUAGE": "La langue que vous utilisez n'est pas prise en charge pour le moment. Veuillez
|
92
|
-
"OTHER": "Le contenu a été bloqué pour une raison inconnue. Veuillez reformuler votre demande
|
93
|
-
"PROHIBITED_CONTENT": "Votre requête pourrait contenir du contenu prohibé. Veuillez ajuster
|
94
|
-
"RECITATION": "Votre contenu a été bloqué
|
95
|
-
"SAFETY": "Votre contenu a été bloqué
|
96
|
-
"SPII": "Votre contenu
|
97
|
-
"default": "Contenu bloqué : {{blockReason}}
|
89
|
+
"BLOCKLIST": "Votre contenu contient des mots interdits. Veuillez vérifier et modifier votre saisie, puis réessayez.",
|
90
|
+
"IMAGE_SAFETY": "Le contenu d'image généré a été bloqué pour des raisons de sécurité. Veuillez essayer de modifier votre requête de génération d'images.",
|
91
|
+
"LANGUAGE": "La langue que vous utilisez n'est pas prise en charge pour le moment. Veuillez essayer en anglais ou dans une autre langue prise en charge.",
|
92
|
+
"OTHER": "Le contenu a été bloqué pour une raison inconnue. Veuillez reformuler votre demande.",
|
93
|
+
"PROHIBITED_CONTENT": "Votre requête pourrait contenir du contenu prohibé. Veuillez l'ajuster pour vous assurer qu'elle respecte les règles d'utilisation.",
|
94
|
+
"RECITATION": "Votre contenu a été bloqué en raison de problèmes potentiels de droits d'auteur. Veuillez utiliser du contenu original ou reformuler votre demande.",
|
95
|
+
"SAFETY": "Votre contenu a été bloqué pour des raisons de sécurité. Veuillez modifier votre requête pour éviter tout contenu potentiellement dangereux ou inapproprié.",
|
96
|
+
"SPII": "Votre contenu peut contenir des informations personnelles sensibles. Pour protéger la vie privée, veuillez retirer ces informations sensibles puis réessayer.",
|
97
|
+
"default": "Contenu bloqué : {{blockReason}}. Veuillez modifier votre demande et réessayer."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Désolé, le quota de cette clé a atteint sa limite. Veuillez vérifier si le solde de votre compte est suffisant ou augmenter le quota de la clé avant de réessayer.",
|
100
100
|
"InvalidAccessCode": "Le mot de passe est incorrect ou vide. Veuillez saisir le mot de passe d'accès correct ou ajouter une clé API personnalisée.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 est un modèle MoE développé en interne par la société DeepSeek. Les performances de DeepSeek-V3 surpassent celles d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B, et se mesurent à la performance des modèles fermés de pointe au monde comme GPT-4o et Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1 : modèle d'inférence de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Fournisseur du modèle : plateforme sophnet. DeepSeek V3 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3 0324, entièrement non quantifiée, avec des capacités de code et mathématiques renforcées, offrant une réactivité accrue !"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Capacités avancées de raisonnement d'image adaptées aux applications d'agents de compréhension visuelle."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B : modèle Transformer polyvalent, adapté aux tâches de dialogue et de génération."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles d'un modèle de 405B à un coût très faible. Basé sur une architecture Transformer, il a été amélioré en utilité et en sécurité grâce à un ajustement supervisé (SFT) et à un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick : modèle à grande échelle basé sur le Mixture-of-Experts, offrant une stratégie d'activation experte efficace pour des performances optimales en inférence."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Modèle d'inférence entièrement développé en interne. Leader mondial : 80K chaînes de pensée x 1M d'entrées, des performances comparables aux meilleurs modèles internationaux."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B est un modèle MoE (modèle d'experts mixtes) qui introduit un « mode de raisonnement hybride », permettant aux utilisateurs de basculer sans interruption entre le « mode réflexif » et le « mode non réflexif ». Il prend en charge la compréhension et le raisonnement dans 119 langues et dialectes, et dispose de puissantes capacités d'appel d'outils. Sur plusieurs benchmarks, notamment en capacités globales, codage et mathématiques, multilinguisme, connaissances et raisonnement, il rivalise avec les principaux grands modèles du marché tels que DeepSeek R1, OpenAI o1, o3-mini, Grok 3 et Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507 : modèle optimisé pour le raisonnement avancé et les instructions de dialogue, avec une architecture à experts mixtes pour maintenir l'efficacité de l'inférence à grande échelle."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B est un modèle dense (Dense Model) qui introduit un « mode de raisonnement hybride », permettant aux utilisateurs de basculer sans interruption entre le « mode réflexif » et le « mode non réflexif ». Grâce à des améliorations de l'architecture du modèle, à l'augmentation des données d'entraînement et à des méthodes d'entraînement plus efficaces, ses performances globales sont comparables à celles de Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash est le modèle principal le plus avancé de Google, conçu pour des tâches avancées de raisonnement, de codage, de mathématiques et de sciences. Il intègre une capacité de « réflexion » intégrée, lui permettant de fournir des réponses avec une précision accrue et un traitement contextuel plus détaillé.\n\nRemarque : ce modèle existe en deux variantes : avec réflexion et sans réflexion. Le tarif de sortie varie considérablement selon que la capacité de réflexion est activée ou non. Si vous choisissez la variante standard (sans le suffixe « :thinking »), le modèle évitera explicitement de générer des jetons de réflexion.\n\nPour exploiter la capacité de réflexion et recevoir des jetons de réflexion, vous devez sélectionner la variante « :thinking », ce qui entraînera un tarif de sortie plus élevé pour la réflexion.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre « nombre maximal de jetons pour le raisonnement », comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, adapté pour fonctionner sur des GPU grand public haut de gamme ou des Mac Apple Silicon. Ce modèle excelle dans la génération de dialogues, la rédaction de code et les tâches de raisonnement, avec prise en charge des appels de fonctions et de l'utilisation d'outils."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 : architecture Transformer quantifiée, offrant des performances solides même en ressources limitées."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, conçu comme un modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haute performance, offrant des performances exceptionnelles en raisonnement complexe, génération de code et traitement multilingue, avec prise en charge avancée des appels de fonctions et de l'intégration d'outils."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix offre un accès à divers modèles d'IA via une interface API unifiée."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash est un marché de ressources cloud sans autorisation, offrant des tarifs compétitifs par rapport aux fournisseurs cloud traditionnels."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic est une entreprise axée sur la recherche et le développement en intelligence artificielle, offrant une gamme de modèles linguistiques avancés, tels que Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus et Claude 3 Haiku. Ces modèles atteignent un équilibre idéal entre intelligence, rapidité et coût, adaptés à divers scénarios d'application, allant des charges de travail d'entreprise aux réponses rapides. Claude 3.5 Sonnet, en tant que dernier modèle, a excellé dans plusieurs évaluations tout en maintenant un bon rapport qualité-prix."
|
16
19
|
},
|
package/locales/it-IT/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Interruttore di pensiero profondo"
|
54
54
|
},
|
55
|
-
"title": "Funzionalità di estensione del modello"
|
55
|
+
"title": "Funzionalità di estensione del modello",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Se abilitato, analizzerà automaticamente i link delle pagine web per ottenere il contenuto contestuale reale della pagina",
|
58
|
+
"title": "Estrai contenuto dal link della pagina web"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "L'assistente ricorderà solo gli ultimi {{count}} messaggi"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Scrittura cache input",
|
126
130
|
"output": "Output",
|
127
131
|
"outputAudio": "Output audio",
|
132
|
+
"outputImage": "Output immagine",
|
128
133
|
"outputText": "Output testo",
|
129
134
|
"outputTitle": "Dettagli output",
|
130
135
|
"reasoning": "Ragionamento profondo",
|
package/locales/it-IT/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "Il contenuto della richiesta attuale supera la lunghezza che il modello può gestire. Si prega di ridurre la quantità di contenuto e riprovare.",
|
87
87
|
"FreePlanLimit": "Attualmente sei un utente gratuito e non puoi utilizzare questa funzione. Per favore, passa a un piano a pagamento per continuare.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Il
|
89
|
+
"BLOCKLIST": "Il contenuto contiene parole proibite. Controlla e modifica l'input, quindi riprova.",
|
90
90
|
"IMAGE_SAFETY": "La generazione dell'immagine è stata bloccata per motivi di sicurezza. Prova a modificare la richiesta di generazione dell'immagine.",
|
91
|
-
"LANGUAGE": "La lingua
|
92
|
-
"OTHER": "Il contenuto è stato bloccato per
|
93
|
-
"PROHIBITED_CONTENT": "La tua richiesta potrebbe contenere contenuti
|
94
|
-
"RECITATION": "Il contenuto è stato bloccato perché potrebbe coinvolgere questioni di copyright. Prova a
|
95
|
-
"SAFETY": "Il contenuto è stato bloccato per motivi di sicurezza.
|
91
|
+
"LANGUAGE": "La lingua che stai utilizzando non è al momento supportata. Prova a riformulare la domanda in inglese o in un'altra lingua supportata.",
|
92
|
+
"OTHER": "Il contenuto è stato bloccato per ragioni sconosciute. Prova a riformulare la tua richiesta.",
|
93
|
+
"PROHIBITED_CONTENT": "La tua richiesta potrebbe contenere contenuti proibiti. Modificala per assicurarti che rispetti le linee guida d'uso.",
|
94
|
+
"RECITATION": "Il contenuto è stato bloccato perché potrebbe coinvolgere questioni di copyright. Prova a usare contenuti originali o a riformulare la richiesta.",
|
95
|
+
"SAFETY": "Il contenuto è stato bloccato per motivi di sicurezza. Prova ad adeguare la richiesta, evitando contenuti potenzialmente dannosi o inappropriati.",
|
96
96
|
"SPII": "Il tuo contenuto potrebbe contenere informazioni personali sensibili. Per proteggere la privacy, rimuovi tali informazioni e riprova.",
|
97
|
-
"default": "Contenuto bloccato: {{blockReason}}. Modifica la
|
97
|
+
"default": "Contenuto bloccato: {{blockReason}}. Modifica la richiesta e riprova."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Ci dispiace, la quota per questa chiave ha raggiunto il limite. Si prega di controllare il saldo dell'account o di aumentare la quota della chiave e riprovare.",
|
100
100
|
"InvalidAccessCode": "Password incorrect or empty, please enter the correct access password, or add a custom API Key",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 è un modello MoE sviluppato internamente dalla DeepSeek Company. I risultati di DeepSeek-V3 in molte valutazioni superano quelli di altri modelli open source come Qwen2.5-72B e Llama-3.1-405B, e si confronta alla pari con i modelli closed source di punta a livello mondiale come GPT-4o e Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione, migliora le capacità di ragionamento complesso e pensiero a catena, adatto a compiti che richiedono un'analisi approfondita."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Il fornitore del modello è la piattaforma sophnet. DeepSeek V3 Fast è la versione ad alta velocità TPS del modello DeepSeek V3 0324, completamente non quantificata, con capacità di codice e matematica potenziate e risposte più rapide!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Capacità avanzate di ragionamento visivo per applicazioni di agenti di comprensione visiva."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: modello Transformer versatile, adatto per compiti di dialogo e generazione."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Modello di testo ottimizzato per le istruzioni di Llama 3.1, progettato per casi d'uso di dialogo multilingue, che si distingue in molti modelli di chat open source e chiusi in benchmark di settore comuni."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer e migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per aumentarne l'utilità e la sicurezza. La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue, superando molti modelli di chat open source e chiusi in vari benchmark di settore. La data di conoscenza è dicembre 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: modello su larga scala basato su Mixture-of-Experts, offre una strategia efficiente di attivazione degli esperti per eccellere nell'inferenza."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Modello di inferenza completamente sviluppato internamente. Leader mondiale: 80K catene di pensiero x 1M input, prestazioni paragonabili ai migliori modelli internazionali."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B è un modello MoE (esperto misto) che introduce la “modalità di ragionamento ibrido”, consentendo agli utenti di passare senza soluzione di continuità tra la modalità “pensante” e quella “non pensante”. Supporta la comprensione e il ragionamento in 119 lingue e dialetti, dispone di potenti capacità di chiamata di strumenti e compete con i principali modelli di mercato come DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro in vari benchmark relativi a capacità generali, codice e matematica, competenze multilingue, conoscenza e ragionamento."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: modello ottimizzato per ragionamento avanzato e istruzioni di dialogo, con architettura a esperti misti per mantenere l'efficienza nell'inferenza con parametri su larga scala."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B è un modello denso (Dense Model) che introduce la “modalità di ragionamento ibrido”, permettendo agli utenti di passare senza soluzione di continuità tra la modalità “pensante” e quella “non pensante”. Grazie a miglioramenti nell'architettura del modello, all'aumento dei dati di addestramento e a metodi di training più efficaci, le prestazioni complessive sono comparabili a quelle di Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per compiti avanzati di ragionamento, codifica, matematica e scienze. Include capacità di “pensiero” integrate, che gli permettono di fornire risposte con maggiore accuratezza e una gestione più dettagliata del contesto.\n\nNota: questo modello ha due varianti: con pensiero e senza pensiero. Il prezzo di output varia significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso “:thinking”), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi selezionare la variante “:thinking”, che comporta un prezzo di output più elevato per il pensiero.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro “max tokens for reasoning”, come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Modello sperimentale Gemini 2.5 Flash, supporta la generazione di immagini."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Modello sperimentale Gemini 2.5 Flash, supporta la generazione di immagini."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per ragionamenti avanzati, codifica, matematica e compiti scientifici. Include capacità di 'pensiero' integrate, permettendo di fornire risposte con maggiore accuratezza e una gestione contestuale più dettagliata.\n\nNota: questo modello ha due varianti: pensiero e non pensiero. I prezzi di output variano significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi scegliere la variante ':thinking', che comporterà un prezzo di output di pensiero più elevato.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro 'numero massimo di token per il ragionamento', come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B è un modello linguistico open source rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, adatto per l'esecuzione su GPU di fascia alta per consumatori o su Mac con Apple Silicon. Questo modello eccelle nella generazione di dialoghi, nella scrittura di codice e nei compiti di ragionamento, supportando chiamate di funzione e l'uso di strumenti."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4: struttura Transformer quantizzata, mantiene prestazioni elevate anche con risorse limitate."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B è un modello linguistico open source di grandi dimensioni rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, rappresentando un modello di punta. Richiede un ambiente con più GPU o una workstation ad alte prestazioni per l'esecuzione, offrendo prestazioni eccellenti in ragionamenti complessi, generazione di codice e gestione multilingue, supportando chiamate di funzione avanzate e integrazione di strumenti."
|
1540
1561
|
},
|