@lobehub/chat 1.117.1 → 1.118.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +8 -0
- package/AGENTS.md +133 -0
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/chat.json +6 -1
- package/locales/ar/error.json +8 -8
- package/locales/ar/models.json +21 -0
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/chat.json +6 -1
- package/locales/bg-BG/error.json +8 -8
- package/locales/bg-BG/models.json +21 -0
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/chat.json +6 -1
- package/locales/de-DE/error.json +7 -7
- package/locales/de-DE/models.json +21 -0
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/chat.json +6 -1
- package/locales/en-US/error.json +4 -4
- package/locales/en-US/models.json +21 -0
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/chat.json +6 -1
- package/locales/es-ES/error.json +9 -9
- package/locales/es-ES/models.json +21 -0
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/chat.json +6 -1
- package/locales/fa-IR/error.json +9 -9
- package/locales/fa-IR/models.json +21 -0
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/chat.json +6 -1
- package/locales/fr-FR/error.json +9 -9
- package/locales/fr-FR/models.json +21 -0
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/chat.json +6 -1
- package/locales/it-IT/error.json +7 -7
- package/locales/it-IT/models.json +21 -0
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/chat.json +6 -1
- package/locales/ja-JP/error.json +8 -8
- package/locales/ja-JP/models.json +21 -0
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/chat.json +6 -1
- package/locales/ko-KR/error.json +8 -8
- package/locales/ko-KR/models.json +21 -0
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/chat.json +6 -1
- package/locales/nl-NL/error.json +8 -8
- package/locales/nl-NL/models.json +21 -0
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/chat.json +6 -1
- package/locales/pl-PL/error.json +9 -9
- package/locales/pl-PL/models.json +21 -0
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/chat.json +6 -1
- package/locales/pt-BR/error.json +8 -8
- package/locales/pt-BR/models.json +21 -0
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/chat.json +6 -1
- package/locales/ru-RU/error.json +7 -7
- package/locales/ru-RU/models.json +21 -0
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/chat.json +6 -1
- package/locales/tr-TR/error.json +9 -9
- package/locales/tr-TR/models.json +21 -0
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/chat.json +6 -1
- package/locales/vi-VN/models.json +21 -0
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/chat.json +6 -1
- package/locales/zh-CN/models.json +21 -0
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/chat.json +6 -1
- package/locales/zh-TW/error.json +4 -4
- package/locales/zh-TW/models.json +21 -0
- package/locales/zh-TW/providers.json +3 -0
- package/next.config.ts +22 -6
- package/package.json +1 -1
- package/packages/model-runtime/src/akashchat/index.ts +43 -0
- package/packages/model-runtime/src/google/index.ts +17 -3
- package/packages/model-runtime/src/index.ts +1 -0
- package/packages/model-runtime/src/openai/__snapshots__/index.test.ts.snap +1 -1
- package/packages/model-runtime/src/runtimeMap.ts +2 -0
- package/packages/model-runtime/src/types/chat.ts +4 -0
- package/packages/model-runtime/src/types/type.ts +1 -0
- package/packages/model-runtime/src/utils/modelParse.ts +14 -1
- package/packages/types/src/agent/chatConfig.ts +1 -0
- package/packages/types/src/aiModel.ts +2 -1
- package/packages/types/src/user/settings/keyVaults.ts +1 -0
- package/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx +2 -0
- package/src/config/aiModels/akashchat.ts +84 -0
- package/src/config/aiModels/google.ts +8 -6
- package/src/config/aiModels/index.ts +3 -0
- package/src/config/llm.ts +6 -0
- package/src/config/modelProviders/akashchat.ts +17 -0
- package/src/config/modelProviders/index.ts +3 -0
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
- package/src/locales/default/chat.ts +4 -0
- package/src/services/chat.ts +4 -0
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 ist ein von der DeepSeek Company entwickeltes MoE-Modell. Die Ergebnisse von DeepSeek-V3 übertreffen die anderer Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und stehen in der Leistung auf Augenhöhe mit den weltweit führenden Closed-Source-Modellen GPT-4o und Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: Das nächste Generation Inferenzmodell, das komplexe Schlussfolgerungen und vernetztes Denken verbessert und sich für Aufgaben eignet, die eine tiefgehende Analyse erfordern."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Modellanbieter: sophnet-Plattform. DeepSeek V3 Fast ist die Hochgeschwindigkeitsversion mit hohem TPS des DeepSeek V3 0324 Modells, voll funktionsfähig ohne Quantisierung, mit stärkerer Code- und mathematischer Leistungsfähigkeit und schnellerer Reaktionszeit!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Fortgeschrittene Bildschlussfolgerungsfähigkeiten für Anwendungen im Bereich der visuellen Verständigung."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: Ein vielseitiges Transformer-Modell, geeignet für Dialog- und Generierungsaufgaben."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Das auf Anweisungen optimierte Textmodell Llama 3.1 wurde für mehrsprachige Dialoganwendungen optimiert und zeigt in vielen verfügbaren Open-Source- und geschlossenen Chat-Modellen in gängigen Branchenbenchmarks hervorragende Leistungen."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Sprachmodell der Llama-Serie, das eine Leistung bietet, die mit einem 405B-Modell vergleichbar ist, und das zu extrem niedrigen Kosten. Es basiert auf der Transformer-Architektur und wurde durch überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF) in Bezug auf Nützlichkeit und Sicherheit verbessert. Die auf Anweisungen optimierte Version ist speziell für mehrsprachige Dialoge optimiert und übertrifft in mehreren Branchenbenchmarks viele verfügbare Open-Source- und geschlossene Chat-Modelle. Das Wissensdatum endet im Dezember 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: Ein groß angelegtes Modell basierend auf Mixture-of-Experts, das eine effiziente Expertenaktivierungsstrategie bietet, um bei der Inferenz herausragende Leistungen zu erzielen."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Ein völlig neu entwickeltes Inferenzmodell. Weltweit führend: 80K Denkketten x 1M Eingaben, Leistung auf Augenhöhe mit den besten Modellen im Ausland."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B ist ein MoE (Mixture-of-Experts)-Modell, das den „Hybrid-Reasoning-Modus“ einführt und Nutzern nahtloses Umschalten zwischen „Denkmodus“ und „Nicht-Denkmodus“ ermöglicht. Es unterstützt das Verständnis und die Argumentation in 119 Sprachen und Dialekten und verfügt über leistungsstarke Werkzeugaufruffähigkeiten. In umfassenden Benchmark-Tests zu allgemeinen Fähigkeiten, Programmierung und Mathematik, Mehrsprachigkeit, Wissen und Argumentation konkurriert es mit führenden aktuellen Großmodellen auf dem Markt wie DeepSeek R1, OpenAI o1, o3-mini, Grok 3 und Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: Ein Modell, optimiert für fortgeschrittene Schlussfolgerungen und Dialoganweisungen, mit einer hybriden Expertenarchitektur, die bei großem Parameterumfang die Inferenz-Effizienz bewahrt."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B ist ein dichtes Modell (Dense Model), das den „Hybrid-Reasoning-Modus“ einführt und Nutzern nahtloses Umschalten zwischen „Denkmodus“ und „Nicht-Denkmodus“ ermöglicht. Aufgrund von Verbesserungen in der Modellarchitektur, einer Erweiterung der Trainingsdaten und effizienteren Trainingsmethoden entspricht die Gesamtleistung der von Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, speziell entwickelt für anspruchsvolle Aufgaben in den Bereichen logisches Denken, Programmierung, Mathematik und Wissenschaft. Es verfügt über eingebaute \"Denkfähigkeiten\", die es ermöglichen, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell gibt es in zwei Varianten: mit und ohne Denkfähigkeit. Die Preisgestaltung für die Ausgabe variiert erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, vermeidet das Modell ausdrücklich die Erzeugung von Denk-Token.\n\nUm die Denkfähigkeit zu nutzen und Denk-Token zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Kosten für die Denk-Ausgabe führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"Maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B ist ein von OpenAI veröffentlichtes Open-Source-Sprachmodell, das die MXFP4-Quantisierungstechnologie verwendet und sich für den Einsatz auf High-End-Consumer-GPUs oder Apple Silicon Macs eignet. Dieses Modell zeigt hervorragende Leistungen bei der Dialoggenerierung, Codeerstellung und bei Inferenzaufgaben und unterstützt Funktionsaufrufe sowie die Nutzung von Werkzeugen."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 quantisierte Transformer-Struktur, die auch bei begrenzten Ressourcen starke Leistung beibehält."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B ist ein von OpenAI veröffentlichtes großes Open-Source-Sprachmodell, das die MXFP4-Quantisierungstechnologie verwendet und als Flaggschiff-Modell gilt. Es erfordert den Betrieb auf Multi-GPU- oder Hochleistungs-Workstation-Umgebungen und bietet herausragende Leistungen bei komplexen Inferenzaufgaben, Codegenerierung und mehrsprachiger Verarbeitung. Es unterstützt fortgeschrittene Funktionsaufrufe und die Integration von Werkzeugen."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix bietet über eine einheitliche API-Schnittstelle Zugriff auf verschiedene KI-Modelle."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash ist ein genehmigungsfreier Cloud-Ressourcenmarkt, dessen Preisgestaltung im Vergleich zu herkömmlichen Cloud-Anbietern wettbewerbsfähig ist."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic ist ein Unternehmen, das sich auf Forschung und Entwicklung im Bereich der künstlichen Intelligenz spezialisiert hat und eine Reihe fortschrittlicher Sprachmodelle anbietet, darunter Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus und Claude 3 Haiku. Diese Modelle erreichen ein ideales Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten und sind für eine Vielzahl von Anwendungsszenarien geeignet, von unternehmensweiten Arbeitslasten bis hin zu schnellen Reaktionen. Claude 3.5 Sonnet, als neuestes Modell, hat in mehreren Bewertungen hervorragend abgeschnitten und bietet gleichzeitig ein hohes Preis-Leistungs-Verhältnis."
|
16
19
|
},
|
package/locales/en-US/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Deep Thinking Switch"
|
54
54
|
},
|
55
|
-
"title": "Model Extension Features"
|
55
|
+
"title": "Model Extension Features",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "When enabled, web links will be automatically parsed to retrieve the actual webpage context content",
|
58
|
+
"title": "Extract Webpage Link Content"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "The assistant will only remember the last {{count}} messages."
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Input cache write",
|
126
130
|
"output": "Output",
|
127
131
|
"outputAudio": "Audio Output",
|
132
|
+
"outputImage": "Image Output",
|
128
133
|
"outputText": "Text Output",
|
129
134
|
"outputTitle": "Output Details",
|
130
135
|
"reasoning": "Deep Thinking",
|
package/locales/en-US/error.json
CHANGED
@@ -87,13 +87,13 @@
|
|
87
87
|
"FreePlanLimit": "You are currently a free user and cannot use this feature. Please upgrade to a paid plan to continue using it.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
89
|
"BLOCKLIST": "Your content contains prohibited terms. Please review and modify your input, then try again.",
|
90
|
-
"IMAGE_SAFETY": "The generated image
|
91
|
-
"LANGUAGE": "The language you
|
90
|
+
"IMAGE_SAFETY": "The generated image was blocked for safety reasons. Please try modifying your image request.",
|
91
|
+
"LANGUAGE": "The language you are using is not supported. Please try again in English or another supported language.",
|
92
92
|
"OTHER": "The content was blocked for an unknown reason. Please try rephrasing your request.",
|
93
93
|
"PROHIBITED_CONTENT": "Your request may contain prohibited content. Please adjust your request to comply with the usage guidelines.",
|
94
94
|
"RECITATION": "Your content was blocked due to potential copyright concerns. Please try using original content or rephrase your request.",
|
95
|
-
"SAFETY": "Your content was blocked
|
96
|
-
"SPII": "Your content may contain sensitive
|
95
|
+
"SAFETY": "Your content was blocked for safety policy reasons. Please adjust your request to avoid potentially harmful or inappropriate content.",
|
96
|
+
"SPII": "Your content may contain sensitive personally identifiable information (PII). To protect privacy, please remove any sensitive details and try again.",
|
97
97
|
"default": "Content blocked: {{blockReason}}. Please adjust your request and try again."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Sorry, the quota for this key has been reached. Please check your account balance or increase the key quota and try again.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 is a MoE model developed in-house by Deep Seek Company. Its performance surpasses that of other open-source models such as Qwen2.5-72B and Llama-3.1-405B in multiple assessments, and it stands on par with the world's top proprietary models like GPT-4o and Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: Next-generation reasoning model, enhancing complex reasoning and chain-of-thought capabilities, ideal for tasks requiring in-depth analysis."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Model provider: sophnet platform. DeepSeek V3 Fast is the high-TPS ultra-fast version of DeepSeek V3 0324, fully powered without quantization, featuring enhanced coding and mathematical capabilities for faster response!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Advanced image reasoning capabilities suitable for visual understanding agent applications."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: A versatile Transformer model suitable for conversational and generative tasks."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to a 405B model at a very low cost. Based on the Transformer architecture, it enhances usability and safety through supervised fine-tuning (SFT) and reinforcement learning from human feedback (RLHF). Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on various industry benchmarks. Knowledge cutoff date is December 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: A large-scale model based on Mixture-of-Experts, offering an efficient expert activation strategy for superior inference performance."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "A brand-new self-developed inference model. Globally leading: 80K reasoning chains x 1M input, performance comparable to top overseas models."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B is a Mixture of Experts (MoE) model that introduces a \"Hybrid Reasoning Mode,\" allowing users to seamlessly switch between \"Thinking Mode\" and \"Non-Thinking Mode.\" It supports understanding and reasoning in 119 languages and dialects and possesses powerful tool invocation capabilities. In comprehensive benchmarks covering overall ability, coding and mathematics, multilingual proficiency, knowledge, and reasoning, it competes with leading large models on the market such as DeepSeek R1, OpenAI o1, o3-mini, Grok 3, and Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: A model optimized for advanced reasoning and dialogue instructions, featuring a mixture-of-experts architecture to maintain inference efficiency at large scale."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B is a dense model that introduces a \"Hybrid Reasoning Mode,\" enabling users to seamlessly switch between \"Thinking Mode\" and \"Non-Thinking Mode.\" Thanks to architectural improvements, increased training data, and more efficient training methods, its overall performance is comparable to that of Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It features built-in \"thinking\" capabilities, enabling it to provide responses with higher accuracy and more nuanced contextual understanding.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly depending on whether the thinking capability is activated. If you choose the standard variant (without the \":thinking\" suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the \":thinking\" variant, which incurs higher pricing for thinking outputs.\n\nAdditionally, Gemini 2.5 Flash can be configured via the \"max tokens for reasoning\" parameter, as detailed in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash experimental model, supporting image generation."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash experimental model, supporting image generation."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B is an open-source large language model released by OpenAI, utilizing MXFP4 quantization technology. It is suitable for running on high-end consumer GPUs or Apple Silicon Macs. This model excels in dialogue generation, code writing, and reasoning tasks, supporting function calls and tool usage."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 quantized Transformer architecture, delivering strong performance even under resource constraints."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B is a large open-source language model released by OpenAI, employing MXFP4 quantization technology as a flagship model. It requires multi-GPU or high-performance workstation environments to operate and delivers outstanding performance in complex reasoning, code generation, and multilingual processing, supporting advanced function calls and tool integration."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix provides access to various AI models through a unified API interface."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash is a permissionless cloud resource marketplace with competitive pricing compared to traditional cloud providers."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic is a company focused on AI research and development, offering a range of advanced language models such as Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus, and Claude 3 Haiku. These models achieve an ideal balance between intelligence, speed, and cost, suitable for various applications from enterprise workloads to rapid-response scenarios. Claude 3.5 Sonnet, as their latest model, has excelled in multiple evaluations while maintaining a high cost-performance ratio."
|
16
19
|
},
|
package/locales/es-ES/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Interruptor de pensamiento profundo"
|
54
54
|
},
|
55
|
-
"title": "Funcionalidad de extensión del modelo"
|
55
|
+
"title": "Funcionalidad de extensión del modelo",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Al activarlo, se analizarán automáticamente los enlaces web para obtener el contenido contextual real de la página",
|
58
|
+
"title": "Extraer contenido del enlace web"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "El asistente solo recordará los últimos {{count}} mensajes"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Escritura en caché de entrada",
|
126
130
|
"output": "Salida",
|
127
131
|
"outputAudio": "Salida de audio",
|
132
|
+
"outputImage": "Salida de imagen",
|
128
133
|
"outputText": "Salida de texto",
|
129
134
|
"outputTitle": "Detalles de salida",
|
130
135
|
"reasoning": "Razonamiento profundo",
|
package/locales/es-ES/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "El contenido de la solicitud actual excede la longitud que el modelo puede procesar. Por favor, reduzca la cantidad de contenido y vuelva a intentarlo.",
|
87
87
|
"FreePlanLimit": "Actualmente eres un usuario gratuito y no puedes utilizar esta función. Por favor, actualiza a un plan de pago para seguir utilizando.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Su contenido contiene
|
90
|
-
"IMAGE_SAFETY": "
|
91
|
-
"LANGUAGE": "El idioma que está
|
92
|
-
"OTHER": "El contenido
|
93
|
-
"PROHIBITED_CONTENT": "Su
|
94
|
-
"RECITATION": "Su contenido
|
95
|
-
"SAFETY": "Su contenido
|
96
|
-
"SPII": "Su contenido
|
97
|
-
"default": "Contenido bloqueado: {{blockReason}}
|
89
|
+
"BLOCKLIST": "Su contenido contiene términos prohibidos. Revíselo y modifique su entrada antes de intentarlo de nuevo.",
|
90
|
+
"IMAGE_SAFETY": "La generación de la imagen fue bloqueada por motivos de seguridad. Intente modificar su petición de generación de imágenes.",
|
91
|
+
"LANGUAGE": "El idioma que está usando no está soportado por el momento. Por favor, intente en inglés u otro idioma compatible.",
|
92
|
+
"OTHER": "El contenido fue bloqueado por una razón desconocida. Intente reformular su solicitud.",
|
93
|
+
"PROHIBITED_CONTENT": "Su petición podría contener contenido prohibido. Ajuste su solicitud para garantizar que cumple las normas de uso.",
|
94
|
+
"RECITATION": "Su contenido fue bloqueado por posibles problemas de derechos de autor. Intente usar contenido original o reformule su solicitud.",
|
95
|
+
"SAFETY": "Su contenido fue bloqueado por razones de seguridad. Ajuste su solicitud para evitar incluir material potencialmente dañino o inapropiado.",
|
96
|
+
"SPII": "Su contenido podría contener información personal sensible. Para proteger la privacidad, elimine la información sensible y vuelva a intentarlo.",
|
97
|
+
"default": "Contenido bloqueado: {{blockReason}}. Ajuste su solicitud y vuelva a intentarlo."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Lo sentimos, la cuota de esta clave ha alcanzado su límite. Por favor, verifique si el saldo de su cuenta es suficiente o aumente la cuota de la clave y vuelva a intentarlo.",
|
100
100
|
"InvalidAccessCode": "La contraseña no es válida o está vacía. Por favor, introduce una contraseña de acceso válida o añade una clave API personalizada",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 es un modelo MoE desarrollado internamente por la empresa DeepSeek. Los resultados de DeepSeek-V3 en múltiples evaluaciones superan a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B, y su rendimiento es comparable al de los modelos cerrados de primer nivel mundial como GPT-4o y Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: modelo de inferencia de próxima generación, mejora la capacidad de razonamiento complejo y pensamiento en cadena, adecuado para tareas que requieren análisis profundo."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Proveedor del modelo: plataforma sophnet. DeepSeek V3 Fast es la versión de alta velocidad y alto TPS de DeepSeek V3 0324, completamente sin cuantificación, con mayor capacidad en código y matemáticas, ¡y respuesta más rápida!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Capacidad avanzada de razonamiento de imágenes para aplicaciones de agentes de comprensión visual."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: modelo Transformer de gran versatilidad, adecuado para tareas de diálogo y generación."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Modelo de texto ajustado por instrucciones de Llama 3.1, optimizado para casos de uso de diálogos multilingües, que se destaca en muchos modelos de chat de código abierto y cerrados en benchmarks de la industria comunes."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 es el modelo de lenguaje de código abierto multilingüe más avanzado de la serie Llama, que ofrece un rendimiento comparable al modelo de 405B a un costo extremadamente bajo. Basado en la estructura Transformer, y mejorado en utilidad y seguridad a través de ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF). Su versión ajustada por instrucciones está optimizada para diálogos multilingües, superando a muchos modelos de chat de código abierto y cerrados en múltiples benchmarks de la industria. La fecha límite de conocimiento es diciembre de 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: modelo a gran escala basado en Mixture-of-Experts, que ofrece una estrategia eficiente de activación de expertos para un rendimiento sobresaliente en inferencia."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Modelo de inferencia de desarrollo propio completamente nuevo. Líder mundial: 80K cadenas de pensamiento x 1M de entradas, con un rendimiento comparable a los modelos de vanguardia internacionales."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B es un modelo MoE (modelo de expertos mixtos) que introduce el “modo de razonamiento mixto”, permitiendo a los usuarios cambiar sin problemas entre el “modo reflexivo” y el “modo no reflexivo”. Soporta la comprensión y el razonamiento en 119 idiomas y dialectos, y cuenta con una potente capacidad de invocación de herramientas. En pruebas de referencia que evalúan capacidades generales, código y matemáticas, multilingüismo, conocimiento y razonamiento, compite con los principales modelos del mercado como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 y Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: modelo optimizado para razonamiento avanzado e instrucciones de diálogo, con arquitectura de expertos mixtos para mantener la eficiencia en inferencia con gran cantidad de parámetros."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B es un modelo denso (Dense Model) que introduce el “modo de razonamiento mixto”, permitiendo a los usuarios cambiar sin problemas entre el “modo reflexivo” y el “modo no reflexivo”. Gracias a mejoras en la arquitectura del modelo, aumento de datos de entrenamiento y métodos de entrenamiento más eficientes, su rendimiento general es comparable al de Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para tareas avanzadas de razonamiento, codificación, matemáticas y ciencias. Incluye una capacidad incorporada de \"pensamiento\" que le permite proporcionar respuestas con mayor precisión y un manejo detallado del contexto.\n\nNota: este modelo tiene dos variantes: con pensamiento y sin pensamiento. La tarificación de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo \":thinking\"), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe seleccionar la variante \":thinking\", lo que generará una tarificación más alta para la salida de pensamiento.\n\nAdemás, Gemini 2.5 Flash se puede configurar mediante el parámetro \"máximo de tokens para razonamiento\", como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para razonamiento avanzado, codificación, matemáticas y tareas científicas. Incluye la capacidad de 'pensar' incorporada, lo que le permite proporcionar respuestas con mayor precisión y un manejo más detallado del contexto.\n\nNota: Este modelo tiene dos variantes: con pensamiento y sin pensamiento. La fijación de precios de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo ':thinking'), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe elegir la variante ':thinking', lo que resultará en un precio de salida de pensamiento más alto.\n\nAdemás, Gemini 2.5 Flash se puede configurar a través del parámetro 'número máximo de tokens de razonamiento', como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1533,6 +1551,9 @@
|
|
1533
1551
|
"gpt-oss": {
|
1534
1552
|
"description": "GPT-OSS 20B es un modelo de lenguaje abierto lanzado por OpenAI, que utiliza la tecnología de cuantificación MXFP4, adecuado para ejecutarse en GPU de consumo de alta gama o en Mac con Apple Silicon. Este modelo destaca en la generación de diálogos, escritura de código y tareas de razonamiento, y soporta llamadas a funciones y uso de herramientas."
|
1535
1553
|
},
|
1554
|
+
"gpt-oss-120b": {
|
1555
|
+
"description": "GPT-OSS-120B MXFP4: estructura Transformer cuantificada que mantiene un rendimiento sólido incluso con recursos limitados."
|
1556
|
+
},
|
1536
1557
|
"gpt-oss:120b": {
|
1537
1558
|
"description": "GPT-OSS 120B es un modelo de lenguaje abierto de gran escala lanzado por OpenAI, que emplea la tecnología de cuantificación MXFP4, siendo un modelo insignia. Requiere múltiples GPU o estaciones de trabajo de alto rendimiento para su ejecución, y ofrece un rendimiento sobresaliente en razonamiento complejo, generación de código y procesamiento multilingüe, soportando llamadas avanzadas a funciones e integración de herramientas."
|
1538
1559
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix ofrece acceso a múltiples modelos de IA a través de una interfaz API unificada."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash es un mercado de recursos en la nube sin necesidad de permisos, con precios competitivos en comparación con los proveedores de nube tradicionales."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic es una empresa centrada en la investigación y desarrollo de inteligencia artificial, que ofrece una serie de modelos de lenguaje avanzados, como Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus y Claude 3 Haiku. Estos modelos logran un equilibrio ideal entre inteligencia, velocidad y costo, adecuados para una variedad de escenarios de aplicación, desde cargas de trabajo empresariales hasta respuestas rápidas. Claude 3.5 Sonnet, como su modelo más reciente, ha demostrado un rendimiento excepcional en múltiples evaluaciones, manteniendo una alta relación calidad-precio."
|
16
19
|
},
|
package/locales/fa-IR/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "کلید تفکر عمیق"
|
54
54
|
},
|
55
|
-
"title": "ویژگیهای گسترش مدل"
|
55
|
+
"title": "ویژگیهای گسترش مدل",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "با فعالسازی، لینکهای وب بهطور خودکار تجزیه میشوند تا محتوای واقعی زمینه وبسایت بهدست آید",
|
58
|
+
"title": "استخراج محتوای لینک وب"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "دستیار فقط آخرین {{count}} پیام را به خاطر خواهد سپرد"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "ذخیره ورودی نوشتن",
|
126
130
|
"output": "خروجی",
|
127
131
|
"outputAudio": "خروجی صوتی",
|
132
|
+
"outputImage": "خروجی تصویر",
|
128
133
|
"outputText": "خروجی متنی",
|
129
134
|
"outputTitle": "جزئیات خروجی",
|
130
135
|
"reasoning": "تفکر عمیق",
|
package/locales/fa-IR/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "محتوای درخواست فعلی از طول قابل پردازش مدل فراتر رفته است، لطفاً حجم محتوا را کاهش داده و دوباره تلاش کنید",
|
87
87
|
"FreePlanLimit": "شما در حال حاضر کاربر رایگان هستید و نمیتوانید از این قابلیت استفاده کنید، لطفاً به یک طرح پولی ارتقا دهید تا ادامه دهید",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "محتوای شما
|
90
|
-
"IMAGE_SAFETY": "تولید تصویر
|
91
|
-
"LANGUAGE": "
|
92
|
-
"OTHER": "
|
93
|
-
"PROHIBITED_CONTENT": "درخواست شما ممکن است شامل محتوای ممنوعه باشد. لطفاً
|
94
|
-
"RECITATION": "محتوای شما
|
95
|
-
"SAFETY": "محتوای شما
|
96
|
-
"SPII": "محتوای شما ممکن است شامل اطلاعات حساس
|
97
|
-
"default": "محتوا مسدود شد: {{blockReason}}
|
89
|
+
"BLOCKLIST": "محتوای شما شامل واژگان ممنوعه است. لطفاً ورودی خود را بررسی و اصلاح کرده و دوباره تلاش کنید.",
|
90
|
+
"IMAGE_SAFETY": "تولید تصویر بهدلیل ملاحظات ایمنی مسدود شد. لطفاً درخواست تولید تصویر خود را اصلاح کرده و مجدداً تلاش کنید.",
|
91
|
+
"LANGUAGE": "زبانی که استفاده کردهاید در حال حاضر پشتیبانی نمیشود. لطفاً دوباره به زبان انگلیسی یا یکی از زبانهای پشتیبانیشده سؤال خود را مطرح کنید.",
|
92
|
+
"OTHER": "محتوا به دلایل نامشخص مسدود شده است. لطفاً درخواست خود را به شکل دیگری بازنویسی کنید.",
|
93
|
+
"PROHIBITED_CONTENT": "درخواست شما ممکن است شامل محتوای ممنوعه باشد. لطفاً آن را تنظیم کنید تا با دستورالعملهای استفاده مطابقت داشته باشد.",
|
94
|
+
"RECITATION": "محتوای شما بهدلیل احتمال نقض حقوق تکثیر مسدود شده است. لطفاً از محتوای اصلی استفاده کنید یا درخواست خود را بازنویسی کنید.",
|
95
|
+
"SAFETY": "محتوای شما بهدلیل سیاستهای ایمنی مسدود شده است. لطفاً درخواست خود را اصلاح کنید تا شامل محتوای مضر یا نامناسب نباشد.",
|
96
|
+
"SPII": "محتوای شما ممکن است شامل اطلاعات هویتی حساس فردی باشد. برای محافظت از حریم خصوصی، لطفاً اطلاعات حساس را حذف کرده و دوباره تلاش کنید.",
|
97
|
+
"default": "محتوا مسدود شد: {{blockReason}}。لطفاً محتوای درخواست خود را اصلاح کرده و دوباره تلاش کنید."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "متأسفیم، سهمیه این کلید به حداکثر رسیده است، لطفاً موجودی حساب خود را بررسی کرده یا سهمیه کلید را افزایش دهید و دوباره تلاش کنید",
|
100
100
|
"InvalidAccessCode": "رمز عبور نادرست یا خالی است، لطفاً رمز عبور صحیح را وارد کنید یا API Key سفارشی اضافه کنید",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 یک مدل MoE است که توسط شرکت DeepSeek توسعه یافته است. نتایج ارزیابیهای متعدد DeepSeek-V3 از مدلهای متن باز دیگر مانند Qwen2.5-72B و Llama-3.1-405B فراتر رفته و از نظر عملکرد با مدلهای بسته جهانی برتر مانند GPT-4o و Claude-3.5-Sonnet برابری میکند."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که تواناییهای استدلال پیچیده و تفکر زنجیرهای را بهبود میبخشد و برای وظایف نیازمند تحلیل عمیق مناسب است."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "تأمینکننده مدل: پلتفرم sophnet. DeepSeek V3 Fast نسخهای با TPS بالا و سرعت بسیار زیاد از نسخه DeepSeek V3 0324 است، بدون کمیتسازی، با تواناییهای کد و ریاضی قویتر و پاسخدهی سریعتر!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "توانایی استدلال تصویری پیشرفته برای برنامههای نمایندگی درک بصری."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: مدل ترنسفورمر چندمنظوره که برای مکالمه و وظایف تولید محتوا مناسب است."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "مدل متنی تنظیم شده لاما 3.1 که برای موارد مکالمه چند زبانه بهینهسازی شده و در بسیاری از مدلهای چت متن باز و بسته موجود، در معیارهای صنعتی رایج عملکرد عالی دارد."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "لاما 3.3 پیشرفتهترین مدل زبان چند زبانه و متن باز در سری لاما است که با هزینهای بسیار کم، عملکردی مشابه مدل 405B را ارائه میدهد. این مدل بر اساس ساختار ترنسفورمر طراحی شده و از طریق تنظیم دقیق نظارتی (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) بهبود یافته است تا کارایی و ایمنی آن افزایش یابد. نسخه تنظیم شده آن به طور خاص برای مکالمات چند زبانه بهینهسازی شده و در چندین معیار صنعتی، عملکردی بهتر از بسیاری از مدلهای چت متن باز و بسته دارد. تاریخ قطع دانش آن تا دسامبر 2023 است."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: مدل بزرگ مبتنی بر معماری Mixture-of-Experts که استراتژی فعالسازی کارآمد کارشناسان را برای عملکرد برتر در استنتاج ارائه میدهد."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "مدل استنتاج کاملاً توسعهیافته داخلی. پیشرو در جهان: ۸۰ هزار زنجیره فکری در برابر ۱ میلیون ورودی، عملکردی برابر با مدلهای برتر خارجی."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B، مدل MoE (متخصص ترکیبی)، حالت «استدلال ترکیبی» را معرفی کرده است که به کاربران امکان میدهد بهطور یکپارچه بین «حالت تفکر» و «حالت غیرتفکر» جابجا شوند. این مدل از درک و استدلال در ۱۱۹ زبان و گویش پشتیبانی میکند و دارای قابلیتهای قدرتمند فراخوانی ابزار است. در آزمونهای معیار مختلف از جمله تواناییهای جامع، کد نویسی و ریاضیات، چندزبانه، دانش و استدلال، این مدل میتواند با مدلهای پیشرو بازار مانند DeepSeek R1، OpenAI o1، o3-mini، Grok 3 و Google Gemini 2.5 Pro رقابت کند."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: مدلی بهینهشده برای استدلال پیشرفته و دستورهای مکالمه با معماری کارشناسان ترکیبی که کارایی استنتاج را در پارامترهای بزرگ حفظ میکند."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B، مدل متراکم (Dense Model)، حالت «استدلال ترکیبی» را معرفی کرده است که به کاربران امکان میدهد بهطور یکپارچه بین «حالت تفکر» و «حالت غیرتفکر» جابجا شوند. به دلیل بهبود ساختار مدل، افزایش دادههای آموزشی و روشهای مؤثرتر آموزش، عملکرد کلی این مدل با Qwen2.5-72B قابل مقایسه است."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash پیشرفتهترین مدل اصلی گوگل است که بهطور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن امکان میدهد پاسخهایی با دقت بالاتر و پردازش دقیقتر زمینه ارائه دهد.\n\nتوجه: این مدل دو نسخه دارد: تفکری و غیرتفکری. قیمتگذاری خروجی به طور قابل توجهی بسته به فعال بودن قابلیت تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل بهطور صریح از تولید توکنهای تفکر خودداری میکند.\n\nبرای بهرهمندی از قابلیت تفکر و دریافت توکنهای تفکر، باید نسخه «:thinking» را انتخاب کنید که منجر به قیمتگذاری بالاتر برای خروجی تفکر میشود.\n\nعلاوه بر این، Gemini 2.5 Flash را میتوان از طریق پارامتر «حداکثر توکنهای استدلال» پیکربندی کرد، همانطور که در مستندات آمده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه میدهد پاسخهایی با دقت بالاتر و پردازش زمینهای دقیقتری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمتگذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکنهای تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکنهای تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمتگذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash میتواند از طریق پارامتر «حداکثر تعداد توکنهای استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B یک مدل زبان بزرگ متنباز منتشر شده توسط OpenAI است که از فناوری کوانتیزاسیون MXFP4 استفاده میکند و برای اجرا روی GPUهای مصرفی پیشرفته یا مکهای Apple Silicon مناسب است. این مدل در تولید گفتگو، نوشتن کد و وظایف استدلال عملکرد برجستهای دارد و از فراخوانی توابع و استفاده از ابزارها پشتیبانی میکند."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4: ساختار ترنسفورمر کوانتیزه شده که حتی در منابع محدود عملکرد قوی خود را حفظ میکند."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B یک مدل زبان بزرگ متنباز منتشر شده توسط OpenAI است که از فناوری کوانتیزاسیون MXFP4 بهره میبرد و به عنوان مدل پرچمدار شناخته میشود. این مدل نیازمند محیطی با چند GPU یا ایستگاه کاری با عملکرد بالا برای اجرا است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکردی برجسته دارد و از فراخوانی توابع پیشرفته و یکپارچهسازی ابزارها پشتیبانی میکند."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix دسترسی به مدلهای مختلف هوش مصنوعی را از طریق یک رابط برنامهنویسی کاربردی (API) یکپارچه فراهم میکند."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash یک بازار منابع ابری بدون نیاز به مجوز است که قیمتگذاری آن در مقایسه با ارائهدهندگان ابری سنتی رقابتی است."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic یک شرکت متمرکز بر تحقیق و توسعه هوش مصنوعی است که مجموعهای از مدلهای پیشرفته زبان مانند Claude 3.5 Sonnet، Claude 3 Sonnet، Claude 3 Opus و Claude 3 Haiku را ارائه میدهد. این مدلها تعادلی ایدهآل بین هوشمندی، سرعت و هزینه برقرار میکنند و برای انواع کاربردها از بارهای کاری در سطح سازمانی تا پاسخهای سریع مناسب هستند. Claude 3.5 Sonnet به عنوان جدیدترین مدل آن، در ارزیابیهای متعدد عملکرد برجستهای داشته و در عین حال نسبت هزینه به عملکرد بالایی را حفظ کرده است."
|
16
19
|
},
|
package/locales/fr-FR/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Interrupteur de réflexion approfondie"
|
54
54
|
},
|
55
|
-
"title": "Fonctionnalités d'extension du modèle"
|
55
|
+
"title": "Fonctionnalités d'extension du modèle",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Une fois activé, il analysera automatiquement les liens web pour obtenir le contenu contextuel réel de la page web",
|
58
|
+
"title": "Extraction du contenu des liens web"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "L'assistant ne se souviendra que des {{count}} derniers messages"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Écriture de cache d'entrée",
|
126
130
|
"output": "Sortie",
|
127
131
|
"outputAudio": "Sortie audio",
|
132
|
+
"outputImage": "Sortie d'image",
|
128
133
|
"outputText": "Sortie texte",
|
129
134
|
"outputTitle": "Détails de la sortie",
|
130
135
|
"reasoning": "Raisonnement approfondi",
|
package/locales/fr-FR/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "Le contenu de la demande actuelle dépasse la longueur que le modèle peut traiter. Veuillez réduire la quantité de contenu et réessayer.",
|
87
87
|
"FreePlanLimit": "Vous êtes actuellement un utilisateur gratuit et ne pouvez pas utiliser cette fonction. Veuillez passer à un plan payant pour continuer à l'utiliser.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Votre contenu contient des
|
90
|
-
"IMAGE_SAFETY": "
|
91
|
-
"LANGUAGE": "La langue que vous utilisez n'est pas prise en charge pour le moment. Veuillez
|
92
|
-
"OTHER": "Le contenu a été bloqué pour une raison inconnue. Veuillez reformuler votre demande
|
93
|
-
"PROHIBITED_CONTENT": "Votre requête pourrait contenir du contenu prohibé. Veuillez ajuster
|
94
|
-
"RECITATION": "Votre contenu a été bloqué
|
95
|
-
"SAFETY": "Votre contenu a été bloqué
|
96
|
-
"SPII": "Votre contenu
|
97
|
-
"default": "Contenu bloqué : {{blockReason}}
|
89
|
+
"BLOCKLIST": "Votre contenu contient des mots interdits. Veuillez vérifier et modifier votre saisie, puis réessayez.",
|
90
|
+
"IMAGE_SAFETY": "Le contenu d'image généré a été bloqué pour des raisons de sécurité. Veuillez essayer de modifier votre requête de génération d'images.",
|
91
|
+
"LANGUAGE": "La langue que vous utilisez n'est pas prise en charge pour le moment. Veuillez essayer en anglais ou dans une autre langue prise en charge.",
|
92
|
+
"OTHER": "Le contenu a été bloqué pour une raison inconnue. Veuillez reformuler votre demande.",
|
93
|
+
"PROHIBITED_CONTENT": "Votre requête pourrait contenir du contenu prohibé. Veuillez l'ajuster pour vous assurer qu'elle respecte les règles d'utilisation.",
|
94
|
+
"RECITATION": "Votre contenu a été bloqué en raison de problèmes potentiels de droits d'auteur. Veuillez utiliser du contenu original ou reformuler votre demande.",
|
95
|
+
"SAFETY": "Votre contenu a été bloqué pour des raisons de sécurité. Veuillez modifier votre requête pour éviter tout contenu potentiellement dangereux ou inapproprié.",
|
96
|
+
"SPII": "Votre contenu peut contenir des informations personnelles sensibles. Pour protéger la vie privée, veuillez retirer ces informations sensibles puis réessayer.",
|
97
|
+
"default": "Contenu bloqué : {{blockReason}}. Veuillez modifier votre demande et réessayer."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Désolé, le quota de cette clé a atteint sa limite. Veuillez vérifier si le solde de votre compte est suffisant ou augmenter le quota de la clé avant de réessayer.",
|
100
100
|
"InvalidAccessCode": "Le mot de passe est incorrect ou vide. Veuillez saisir le mot de passe d'accès correct ou ajouter une clé API personnalisée.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 est un modèle MoE développé en interne par la société DeepSeek. Les performances de DeepSeek-V3 surpassent celles d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B, et se mesurent à la performance des modèles fermés de pointe au monde comme GPT-4o et Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1 : modèle d'inférence de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Fournisseur du modèle : plateforme sophnet. DeepSeek V3 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3 0324, entièrement non quantifiée, avec des capacités de code et mathématiques renforcées, offrant une réactivité accrue !"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Capacités avancées de raisonnement d'image adaptées aux applications d'agents de compréhension visuelle."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B : modèle Transformer polyvalent, adapté aux tâches de dialogue et de génération."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Modèle de texte optimisé pour les instructions de Llama 3.1, conçu pour des cas d'utilisation de dialogue multilingue, qui se distingue dans de nombreux modèles de chat open source et fermés sur des benchmarks industriels courants."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 est le modèle de langage open source multilingue le plus avancé de la série Llama, offrant des performances comparables à celles d'un modèle de 405B à un coût très faible. Basé sur une architecture Transformer, il a été amélioré en utilité et en sécurité grâce à un ajustement supervisé (SFT) et à un apprentissage par renforcement avec retour humain (RLHF). Sa version optimisée pour les instructions est spécialement conçue pour les dialogues multilingues et surpasse de nombreux modèles de chat open source et fermés sur plusieurs benchmarks industriels. La date limite des connaissances est décembre 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick : modèle à grande échelle basé sur le Mixture-of-Experts, offrant une stratégie d'activation experte efficace pour des performances optimales en inférence."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Modèle d'inférence entièrement développé en interne. Leader mondial : 80K chaînes de pensée x 1M d'entrées, des performances comparables aux meilleurs modèles internationaux."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B est un modèle MoE (modèle d'experts mixtes) qui introduit un « mode de raisonnement hybride », permettant aux utilisateurs de basculer sans interruption entre le « mode réflexif » et le « mode non réflexif ». Il prend en charge la compréhension et le raisonnement dans 119 langues et dialectes, et dispose de puissantes capacités d'appel d'outils. Sur plusieurs benchmarks, notamment en capacités globales, codage et mathématiques, multilinguisme, connaissances et raisonnement, il rivalise avec les principaux grands modèles du marché tels que DeepSeek R1, OpenAI o1, o3-mini, Grok 3 et Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507 : modèle optimisé pour le raisonnement avancé et les instructions de dialogue, avec une architecture à experts mixtes pour maintenir l'efficacité de l'inférence à grande échelle."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B est un modèle dense (Dense Model) qui introduit un « mode de raisonnement hybride », permettant aux utilisateurs de basculer sans interruption entre le « mode réflexif » et le « mode non réflexif ». Grâce à des améliorations de l'architecture du modèle, à l'augmentation des données d'entraînement et à des méthodes d'entraînement plus efficaces, ses performances globales sont comparables à celles de Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash est le modèle principal le plus avancé de Google, conçu pour des tâches avancées de raisonnement, de codage, de mathématiques et de sciences. Il intègre une capacité de « réflexion » intégrée, lui permettant de fournir des réponses avec une précision accrue et un traitement contextuel plus détaillé.\n\nRemarque : ce modèle existe en deux variantes : avec réflexion et sans réflexion. Le tarif de sortie varie considérablement selon que la capacité de réflexion est activée ou non. Si vous choisissez la variante standard (sans le suffixe « :thinking »), le modèle évitera explicitement de générer des jetons de réflexion.\n\nPour exploiter la capacité de réflexion et recevoir des jetons de réflexion, vous devez sélectionner la variante « :thinking », ce qui entraînera un tarif de sortie plus élevé pour la réflexion.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre « nombre maximal de jetons pour le raisonnement », comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, adapté pour fonctionner sur des GPU grand public haut de gamme ou des Mac Apple Silicon. Ce modèle excelle dans la génération de dialogues, la rédaction de code et les tâches de raisonnement, avec prise en charge des appels de fonctions et de l'utilisation d'outils."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 : architecture Transformer quantifiée, offrant des performances solides même en ressources limitées."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B est un grand modèle de langage open source publié par OpenAI, utilisant la technologie de quantification MXFP4, conçu comme un modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haute performance, offrant des performances exceptionnelles en raisonnement complexe, génération de code et traitement multilingue, avec prise en charge avancée des appels de fonctions et de l'intégration d'outils."
|
1540
1561
|
},
|