@lobehub/chat 1.118.0 → 1.118.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +8 -0
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/chat.json +6 -1
- package/locales/ar/error.json +8 -8
- package/locales/ar/models.json +21 -0
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/chat.json +6 -1
- package/locales/bg-BG/error.json +8 -8
- package/locales/bg-BG/models.json +21 -0
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/chat.json +6 -1
- package/locales/de-DE/error.json +7 -7
- package/locales/de-DE/models.json +21 -0
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/chat.json +6 -1
- package/locales/en-US/error.json +4 -4
- package/locales/en-US/models.json +21 -0
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/chat.json +6 -1
- package/locales/es-ES/error.json +9 -9
- package/locales/es-ES/models.json +21 -0
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/chat.json +6 -1
- package/locales/fa-IR/error.json +9 -9
- package/locales/fa-IR/models.json +21 -0
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/chat.json +6 -1
- package/locales/fr-FR/error.json +9 -9
- package/locales/fr-FR/models.json +21 -0
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/chat.json +6 -1
- package/locales/it-IT/error.json +7 -7
- package/locales/it-IT/models.json +21 -0
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/chat.json +6 -1
- package/locales/ja-JP/error.json +8 -8
- package/locales/ja-JP/models.json +21 -0
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/chat.json +6 -1
- package/locales/ko-KR/error.json +8 -8
- package/locales/ko-KR/models.json +21 -0
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/chat.json +6 -1
- package/locales/nl-NL/error.json +8 -8
- package/locales/nl-NL/models.json +21 -0
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/chat.json +6 -1
- package/locales/pl-PL/error.json +9 -9
- package/locales/pl-PL/models.json +21 -0
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/chat.json +6 -1
- package/locales/pt-BR/error.json +8 -8
- package/locales/pt-BR/models.json +21 -0
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/chat.json +6 -1
- package/locales/ru-RU/error.json +7 -7
- package/locales/ru-RU/models.json +21 -0
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/chat.json +6 -1
- package/locales/tr-TR/error.json +9 -9
- package/locales/tr-TR/models.json +21 -0
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/chat.json +6 -1
- package/locales/vi-VN/models.json +21 -0
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/chat.json +6 -1
- package/locales/zh-CN/models.json +21 -0
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/chat.json +6 -1
- package/locales/zh-TW/error.json +4 -4
- package/locales/zh-TW/models.json +21 -0
- package/locales/zh-TW/providers.json +3 -0
- package/next.config.ts +22 -6
- package/package.json +1 -1
- package/packages/model-runtime/src/google/index.ts +17 -3
- package/packages/model-runtime/src/types/chat.ts +4 -0
- package/packages/model-runtime/src/xai/index.ts +1 -1
- package/packages/types/src/agent/chatConfig.ts +1 -0
- package/packages/types/src/aiModel.ts +2 -1
- package/src/config/aiModels/google.ts +8 -6
- package/src/config/aiModels/xai.ts +25 -0
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
- package/src/locales/default/chat.ts +4 -0
- package/src/services/chat.ts +4 -0
package/.env.example
CHANGED
@@ -4,6 +4,14 @@
|
|
4
4
|
# Specify your API Key selection method, currently supporting `random` and `turn`.
|
5
5
|
# API_KEY_SELECT_MODE=random
|
6
6
|
|
7
|
+
########################################
|
8
|
+
########### Security Settings ###########
|
9
|
+
########################################
|
10
|
+
|
11
|
+
# Control Content Security Policy headers
|
12
|
+
# Set to '1' to enable X-Frame-Options and Content-Security-Policy headers
|
13
|
+
# Default is '0' (enabled)
|
14
|
+
# ENABLED_CSP=1
|
7
15
|
|
8
16
|
########################################
|
9
17
|
########## AI Provider Service #########
|
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,64 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.118.2](https://github.com/lobehub/lobe-chat/compare/v1.118.1...v1.118.2)
|
6
|
+
|
7
|
+
<sup>Released on **2025-08-29**</sup>
|
8
|
+
|
9
|
+
#### 💄 Styles
|
10
|
+
|
11
|
+
- **misc**: Add Grok Code Fast 1 model.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### Styles
|
19
|
+
|
20
|
+
- **misc**: Add Grok Code Fast 1 model, closes [#8982](https://github.com/lobehub/lobe-chat/issues/8982) ([dbcec3d](https://github.com/lobehub/lobe-chat/commit/dbcec3d))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
### [Version 1.118.1](https://github.com/lobehub/lobe-chat/compare/v1.118.0...v1.118.1)
|
31
|
+
|
32
|
+
<sup>Released on **2025-08-29**</sup>
|
33
|
+
|
34
|
+
#### 🐛 Bug Fixes
|
35
|
+
|
36
|
+
- **misc**: Add Content-Security-Policy env.
|
37
|
+
|
38
|
+
#### 💄 Styles
|
39
|
+
|
40
|
+
- **misc**: Support Gemini URL context tool.
|
41
|
+
|
42
|
+
<br/>
|
43
|
+
|
44
|
+
<details>
|
45
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
46
|
+
|
47
|
+
#### What's fixed
|
48
|
+
|
49
|
+
- **misc**: Add Content-Security-Policy env, closes [#8752](https://github.com/lobehub/lobe-chat/issues/8752) ([9250540](https://github.com/lobehub/lobe-chat/commit/9250540))
|
50
|
+
|
51
|
+
#### Styles
|
52
|
+
|
53
|
+
- **misc**: Support Gemini URL context tool, closes [#8731](https://github.com/lobehub/lobe-chat/issues/8731) ([5d4ed11](https://github.com/lobehub/lobe-chat/commit/5d4ed11))
|
54
|
+
|
55
|
+
</details>
|
56
|
+
|
57
|
+
<div align="right">
|
58
|
+
|
59
|
+
[](#readme-top)
|
60
|
+
|
61
|
+
</div>
|
62
|
+
|
5
63
|
## [Version 1.118.0](https://github.com/lobehub/lobe-chat/compare/v1.117.1...v1.118.0)
|
6
64
|
|
7
65
|
<sup>Released on **2025-08-29**</sup>
|
package/changelog/v1.json
CHANGED
@@ -1,4 +1,25 @@
|
|
1
1
|
[
|
2
|
+
{
|
3
|
+
"children": {
|
4
|
+
"improvements": [
|
5
|
+
"Add Grok Code Fast 1 model."
|
6
|
+
]
|
7
|
+
},
|
8
|
+
"date": "2025-08-29",
|
9
|
+
"version": "1.118.2"
|
10
|
+
},
|
11
|
+
{
|
12
|
+
"children": {
|
13
|
+
"fixes": [
|
14
|
+
"Add Content-Security-Policy env."
|
15
|
+
],
|
16
|
+
"improvements": [
|
17
|
+
"Support Gemini URL context tool."
|
18
|
+
]
|
19
|
+
},
|
20
|
+
"date": "2025-08-29",
|
21
|
+
"version": "1.118.1"
|
22
|
+
},
|
2
23
|
{
|
3
24
|
"children": {
|
4
25
|
"features": [
|
package/locales/ar/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "مفتاح التفكير العميق"
|
54
54
|
},
|
55
|
-
"title": "وظائف توسيع النموذج"
|
55
|
+
"title": "وظائف توسيع النموذج",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "عند التفعيل، سيتم تحليل روابط الويب تلقائيًا للحصول على محتوى السياق الفعلي للصفحة",
|
58
|
+
"title": "استخراج محتوى رابط الويب"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "سيتذكر المساعد آخر {{count}} رسالة فقط"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "تخزين إدخال الكتابة",
|
126
130
|
"output": "مخرجات",
|
127
131
|
"outputAudio": "مخرجات صوتية",
|
132
|
+
"outputImage": "إخراج الصورة",
|
128
133
|
"outputText": "مخرجات نصية",
|
129
134
|
"outputTitle": "تفاصيل المخرجات",
|
130
135
|
"reasoning": "تفكير عميق",
|
package/locales/ar/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "المحتوى المطلوب الحالي يتجاوز الطول الذي يمكن للنموذج معالجته، يرجى تقليل كمية المحتوى ثم إعادة المحاولة",
|
87
87
|
"FreePlanLimit": "أنت حاليًا مستخدم مجاني، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة مدفوعة للمتابعة",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "يحتوي
|
90
|
-
"IMAGE_SAFETY": "تم حظر المحتوى الصوري لأسباب تتعلق
|
91
|
-
"LANGUAGE": "اللغة التي
|
89
|
+
"BLOCKLIST": "يحتوي المحتوى الذي أرسلته على كلمات محظورة. يرجى مراجعته وتعديل مدخلاتك ثم المحاولة مرة أخرى.",
|
90
|
+
"IMAGE_SAFETY": "تم حظر المحتوى الصوري الناتج لأسباب تتعلق بالأمان. يرجى محاولة تعديل طلب توليد الصورة.",
|
91
|
+
"LANGUAGE": "اللغة التي تستخدمها غير مدعومة مؤقتًا. يرجى المحاولة باللغة الإنجليزية أو بلغة أخرى مدعومة.",
|
92
92
|
"OTHER": "تم حظر المحتوى لسبب غير معروف. يرجى محاولة إعادة صياغة طلبك.",
|
93
|
-
"PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك
|
94
|
-
"RECITATION": "تم حظر
|
95
|
-
"SAFETY": "تم حظر المحتوى بسبب سياسات
|
96
|
-
"SPII": "قد يحتوي
|
97
|
-
"default": "تم حظر المحتوى: {{blockReason}}
|
93
|
+
"PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك لضمان توافقه مع سياسات الاستخدام.",
|
94
|
+
"RECITATION": "تم حظر محتواك لكونه قد ينتهك حقوق النشر. يرجى محاولة استخدام محتوى أصلي أو إعادة صياغة طلبك.",
|
95
|
+
"SAFETY": "تم حظر المحتوى بسبب سياسات السلامة. يرجى تعديل طلبك لتجنب أي محتوى ضار أو غير مناسب.",
|
96
|
+
"SPII": "قد يحتوي المحتوى على معلومات شخصية حساسة. لحماية الخصوصية، يرجى إزالة المعلومات الحساسة ثم المحاولة مرة أخرى.",
|
97
|
+
"default": "تم حظر المحتوى: {{blockReason}}. يرجى تعديل طلبك ثم المحاولة مرة أخرى."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "عذرًا، لقد reached الحد الأقصى للحصة (quota) لهذه المفتاح، يرجى التحقق من رصيد الحساب الخاص بك أو زيادة حصة المفتاح ثم المحاولة مرة أخرى",
|
100
100
|
"InvalidAccessCode": "كلمة المرور غير صحيحة أو فارغة، يرجى إدخال كلمة مرور الوصول الصحيحة أو إضافة مفتاح API مخصص",
|
package/locales/ar/models.json
CHANGED
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 هو نموذج MoE تم تطويره ذاتيًا بواسطة شركة DeepSeek. حقق DeepSeek-V3 نتائج تقييم تفوقت على نماذج مفتوحة المصدر الأخرى مثل Qwen2.5-72B و Llama-3.1-405B، وفي الأداء ينافس النماذج المغلقة الرائدة عالميًا مثل GPT-4o و Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: نموذج الاستدلال من الجيل التالي، يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقاً."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "مزود النموذج: منصة sophnet. DeepSeek V3 Fast هو النسخة السريعة عالية TPS من إصدار DeepSeek V3 0324، غير مكوّن بالكامل، يتمتع بقدرات برمجية ورياضية أقوى واستجابة أسرع!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "قدرات استدلال الصور المتقدمة المناسبة لتطبيقات الوكلاء في الفهم البصري."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: نموذج Transformer متعدد الاستخدامات، مناسب للحوار ومهام التوليد."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "نموذج نصي تم تعديله تحت الإشراف من Llama 3.1، تم تحسينه لحالات الحوار متعددة اللغات، حيث يتفوق في العديد من نماذج الدردشة مفتوحة ومغلقة المصدر المتاحة في المعايير الصناعية الشائعة."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 هو النموذج اللغوي مفتوح المصدر متعدد اللغات الأكثر تقدمًا في سلسلة Llama، حيث يقدم تجربة تنافس أداء نموذج 405B بتكلفة منخفضة للغاية. يعتمد على هيكل Transformer، وتم تحسين فائدته وأمانه من خلال التعديل الدقيق تحت الإشراف (SFT) والتعلم المعزز من خلال ردود الفعل البشرية (RLHF). تم تحسين إصدار التعديل الخاص به ليكون مثاليًا للحوار متعدد اللغات، حيث يتفوق في العديد من المعايير الصناعية على العديد من نماذج الدردشة مفتوحة ومغلقة المصدر. تاريخ انتهاء المعرفة هو ديسمبر 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: نموذج واسع النطاق قائم على مزيج من الخبراء، يوفر استراتيجية تفعيل خبراء فعالة لتحقيق أداء متميز في الاستدلال."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "نموذج استدلال جديد مطور ذاتيًا. رائد عالميًا: 80 ألف سلسلة تفكير × 1 مليون إدخال، أداء يضاهي أفضل النماذج العالمية."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B هو نموذج MoE (نموذج خبير مختلط) يقدم \"وضع الاستدلال المختلط\"، ويدعم المستخدمين في التبديل السلس بين \"وضع التفكير\" و\"وضع عدم التفكير\". يدعم فهم واستدلال 119 لغة ولهجة، ويتميز بقدرات قوية على استدعاء الأدوات. في اختبارات الأداء الشاملة، والبرمجة والرياضيات، واللغات المتعددة، والمعرفة والاستدلال، ينافس هذا النموذج النماذج الرائدة في السوق مثل DeepSeek R1، OpenAI o1، o3-mini، Grok 3، وGoogle Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: نموذج موجه للاستدلال المتقدم وتحسين أوامر الحوار، يعتمد على بنية خبراء مختلطة للحفاظ على كفاءة الاستدلال مع عدد كبير من المعاملات."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B هو نموذج كثيف (Dense Model) يقدم \"وضع الاستدلال المختلط\"، ويدعم التبديل السلس بين \"وضع التفكير\" و\"وضع عدم التفكير\". بفضل تحسينات في بنية النموذج، وزيادة بيانات التدريب، وأساليب تدريب أكثر فعالية، يقدم أداءً يعادل تقريبًا Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash هو النموذج الرئيسي الأكثر تقدمًا من Google، مصمم خصيصًا للمهام المتقدمة في الاستدلال، الترميز، الرياضيات والعلوم. يحتوي على قدرة مدمجة على \"التفكير\"، مما يمكنه من تقديم استجابات بدقة أعلى ومعالجة سياقية أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نسختين: نسخة التفكير ونسخة غير التفكير. تختلف تكلفة الإخراج بشكل ملحوظ بناءً على تفعيل قدرة التفكير. إذا اخترت النسخة القياسية (بدون لاحقة \":thinking\"), سيتجنب النموذج بوضوح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستلام رموز التفكير، يجب عليك اختيار النسخة \":thinking\"، والتي ستؤدي إلى تكلفة إخراج أعلى للتفكير.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ومناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Mac بمعالج Apple Silicon. يتميز هذا النموذج بأداء ممتاز في توليد المحادثات، وكتابة الأكواد، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4: هيكل Transformer محسّن بالكمية، يحافظ على أداء قوي حتى في ظل محدودية الموارد."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ويعتبر نموذجًا رائدًا. يتطلب تشغيله بيئة متعددة وحدات معالجة الرسومات أو محطة عمل عالية الأداء، ويتميز بأداء متفوق في الاستدلال المعقد، وتوليد الأكواد، ومعالجة اللغات المتعددة، ويدعم استدعاء الدوال المتقدمة وتكامل الأدوات."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "يوفر AiHubMix الوصول إلى نماذج الذكاء الاصطناعي المتعددة من خلال واجهة برمجة تطبيقات موحدة."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "آكاش هو سوق موارد سحابية بدون ترخيص، يتميز بأسعار تنافسية مقارنة بمزودي السحابة التقليديين."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic هي شركة تركز على أبحاث وتطوير الذكاء الاصطناعي، وتقدم مجموعة من نماذج اللغة المتقدمة، مثل Claude 3.5 Sonnet وClaude 3 Sonnet وClaude 3 Opus وClaude 3 Haiku. تحقق هذه النماذج توازنًا مثاليًا بين الذكاء والسرعة والتكلفة، وتناسب مجموعة متنوعة من سيناريوهات التطبيقات، من أحمال العمل على مستوى المؤسسات إلى الاستجابات السريعة. يعتبر Claude 3.5 Sonnet أحدث نماذجها، وقد أظهر أداءً ممتازًا في العديد من التقييمات مع الحفاظ على نسبة تكلفة فعالة."
|
16
19
|
},
|
package/locales/bg-BG/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Превключвател за дълбоко мислене"
|
54
54
|
},
|
55
|
-
"title": "Разширени функции на модела"
|
55
|
+
"title": "Разширени функции на модела",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Когато е включено, автоматично ще се анализират уеб връзки, за да се получи реалното съдържание на уеб страницата",
|
58
|
+
"title": "Извличане на съдържание от уеб връзки"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "Асистентът ще запомни само последните {{count}} съобщения"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Входящи кеширани данни",
|
126
130
|
"output": "Изход",
|
127
131
|
"outputAudio": "Аудио изход",
|
132
|
+
"outputImage": "Изходно изображение",
|
128
133
|
"outputText": "Текстов изход",
|
129
134
|
"outputTitle": "Детайли за изхода",
|
130
135
|
"reasoning": "Дълбочинно разсъждение",
|
package/locales/bg-BG/error.json
CHANGED
@@ -86,14 +86,14 @@
|
|
86
86
|
"ExceededContextWindow": "Текущото съдържание на заявката надвишава дължината, която моделът може да обработи. Моля, намалете обема на съдържанието и опитайте отново.",
|
87
87
|
"FreePlanLimit": "В момента сте потребител на безплатен план и не можете да използвате тази функционалност. Моля, надстройте до платен план, за да продължите да я използвате.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля,
|
90
|
-
"IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за
|
91
|
-
"LANGUAGE": "Езикът, който използвате,
|
92
|
-
"OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката
|
93
|
-
"PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да
|
94
|
-
"RECITATION": "
|
95
|
-
"SAFETY": "Вашето съдържание е блокирано поради
|
96
|
-
"SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За
|
89
|
+
"BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля, проверете и коригирайте входа си и опитайте отново.",
|
90
|
+
"IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за безопасност. Моля, опитайте да промените заявката за генериране на изображение.",
|
91
|
+
"LANGUAGE": "Езикът, който използвате, все още не се поддържа. Моля, опитайте да зададете въпроса на английски или на друг поддържан език.",
|
92
|
+
"OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката си.",
|
93
|
+
"PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да отговаря на правилата за ползване.",
|
94
|
+
"RECITATION": "Съдържанието ви е блокирано поради възможни проблеми с авторските права. Моля, опитайте да използвате оригинално съдържание или да преформулирате заявката си.",
|
95
|
+
"SAFETY": "Вашето съдържание е блокирано поради правила за безопасност. Моля, опитайте да промените заявката, като избягвате потенциално вредно или неподходящо съдържание.",
|
96
|
+
"SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За да защитите поверителността, моля, премахнете съответната чувствителна информация и опитайте отново.",
|
97
97
|
"default": "Съдържанието е блокирано: {{blockReason}}。请调整您的请求内容后重试。"
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Съжаляваме, квотата за този ключ е достигнала лимита. Моля, проверете баланса на акаунта си или увеличете квотата на ключа и опитайте отново.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 е MoE модел, разработен от компанията DeepSeek. DeepSeek-V3 постига резултати в множество оценки, които надминават други отворени модели като Qwen2.5-72B и Llama-3.1-405B, като по отношение на производителност е наравно с водещите затворени модели в света като GPT-4o и Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: Следващо поколение модел за разсъждение, подобряващ сложното разсъждение и веригата на мислене, подходящ за задачи, изискващи задълбочен анализ."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Доставчик на модела: платформа sophnet. DeepSeek V3 Fast е високоскоростната версия с висока TPS на DeepSeek V3 0324, с пълна точност без квантизация, с по-силни кодови и математически възможности и по-бърз отговор!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Напреднали способности за визуално разсъждение, подходящи за приложения на агенти за визуално разбиране."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: Универсален трансформър модел, подходящ за диалог и задачи за генериране."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия с оптимизация за инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от наличните отворени и затворени чат модели на множество индустриални бенчмаркове. Краен срок за знанията е декември 2023 г."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: Голям модел, базиран на Mixture-of-Experts, предлагащ ефективна стратегия за активиране на експерти за отлични резултати при разсъждение."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Изцяло ново самостоятелно разработено модел за разсъждение. Световен лидер: 80K вериги на мислене x 1M вход, с резултати, сравними с водещите модели в чужбина."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B е MoE (хибриден експертен модел), който въвежда „хибриден режим на разсъждение“, позволяващ на потребителите безпроблемно превключване между „режим мислене“ и „режим без мислене“. Поддържа разбиране и разсъждение на 119 езика и диалекта и разполага с мощни възможности за извикване на инструменти. В множество базови тестове за общи способности, кодиране, математика, многоезичност, знания и разсъждение, той може да се конкурира с водещите големи модели на пазара като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: Модел, оптимизиран за напреднало разсъждение и диалогови инструкции, с хибридна експертна архитектура, поддържаща ефективност при голям брой параметри."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B е плътен модел (Dense Model), който въвежда „хибриден режим на разсъждение“, позволяващ на потребителите безпроблемно превключване между „режим мислене“ и „режим без мислене“. Благодарение на подобрения в архитектурата на модела, увеличени тренировъчни данни и по-ефективни методи за обучение, общата производителност е сравнима с тази на Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash е най-усъвършенстваният основен модел на Google, специално проектиран за напреднали задачи по разсъждение, кодиране, математика и наука. Той включва вградена способност за „мислене“, която му позволява да предоставя отговори с по-висока точност и по-детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали способността за мислене е активирана. Ако изберете стандартния вариант (без суфикса „:thinking“), моделът ясно избягва генерирането на мисловни токени.\n\nЗа да използвате способността за мислене и да получавате мисловни токени, трябва да изберете варианта „:thinking“, което ще доведе до по-висока цена за изход с мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра „максимален брой токени за разсъждение“, както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B е отворен голям езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, подходящ за работа на висок клас потребителски GPU или Apple Silicon Mac. Този модел се отличава с отлични резултати в генерирането на диалози, писането на код и задачи за разсъждение, като поддържа извикване на функции и използване на инструменти."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 квантизиран трансформър модел, който запазва силна производителност при ограничени ресурси."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B е голям отворен езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, предназначен за флагмански клас модели. Изисква многократни GPU или високопроизводителна работна станция за работа, с изключителни възможности в сложни разсъждения, генериране на код и многоезична обработка, поддържайки усъвършенствано извикване на функции и интеграция на инструменти."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix предоставя достъп до множество AI модели чрез единен API интерфейс."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash е пазар за облачни ресурси без нужда от разрешение, който предлага конкурентни цени в сравнение с традиционните облачни доставчици."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic е компания, специализирана в изследвания и разработка на изкуствен интелект, предлагаща набор от напреднали езикови модели, като Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus и Claude 3 Haiku. Тези модели постигат идеален баланс между интелигентност, скорост и разходи, подходящи за различни приложения, от корпоративни натоварвания до бързи отговори. Claude 3.5 Sonnet, като най-новия им модел, показва отлични резултати в множество оценки, като същевременно поддържа висока цена-качество."
|
16
19
|
},
|
package/locales/de-DE/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Tiefdenk-Schalter"
|
54
54
|
},
|
55
|
-
"title": "Modell Erweiterungsfunktionen"
|
55
|
+
"title": "Modell Erweiterungsfunktionen",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "Wenn aktiviert, werden Webseiten-Links automatisch analysiert, um den tatsächlichen Webseiteninhalt zu erfassen",
|
58
|
+
"title": "Webseiten-Link-Inhalt extrahieren"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "Der Assistent wird nur die letzten {{count}} Nachrichten speichern"
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Eingabe Cache schreiben",
|
126
130
|
"output": "Ausgabe",
|
127
131
|
"outputAudio": "Audioausgabe",
|
132
|
+
"outputImage": "Bildausgabe",
|
128
133
|
"outputText": "Text-Ausgabe",
|
129
134
|
"outputTitle": "Ausgabedetails",
|
130
135
|
"reasoning": "Tiefes Denken",
|
package/locales/de-DE/error.json
CHANGED
@@ -86,15 +86,15 @@
|
|
86
86
|
"ExceededContextWindow": "Der aktuelle Anfrageinhalt überschreitet die von dem Modell verarbeitbare Länge. Bitte reduzieren Sie die Menge des Inhalts und versuchen Sie es erneut.",
|
87
87
|
"FreePlanLimit": "Sie sind derzeit ein kostenloser Benutzer und können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein kostenpflichtiges Abonnement, um fortzufahren.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
|
-
"BLOCKLIST": "Ihr Inhalt enthält verbotene
|
90
|
-
"IMAGE_SAFETY": "Die
|
89
|
+
"BLOCKLIST": "Ihr Inhalt enthält verbotene Wörter. Bitte prüfen und ändern Sie Ihre Eingabe und versuchen Sie es erneut.",
|
90
|
+
"IMAGE_SAFETY": "Die Bildgenerierung wurde aus Sicherheitsgründen blockiert. Bitte passen Sie Ihre Anfrage zur Bildgenerierung an und versuchen Sie es erneut.",
|
91
91
|
"LANGUAGE": "Die von Ihnen verwendete Sprache wird derzeit nicht unterstützt. Bitte versuchen Sie es erneut auf Englisch oder in einer anderen unterstützten Sprache.",
|
92
|
-
"OTHER": "Der Inhalt wurde aus
|
92
|
+
"OTHER": "Der Inhalt wurde aus unbekannten Gründen blockiert. Bitte formulieren Sie Ihre Anfrage neu.",
|
93
93
|
"PROHIBITED_CONTENT": "Ihre Anfrage könnte verbotene Inhalte enthalten. Bitte passen Sie Ihre Anfrage an und stellen Sie sicher, dass sie den Nutzungsrichtlinien entspricht.",
|
94
|
-
"RECITATION": "Ihr Inhalt wurde
|
95
|
-
"SAFETY": "Ihr Inhalt wurde aufgrund
|
96
|
-
"SPII": "Ihr Inhalt könnte sensible personenbezogene Daten enthalten. Zum Schutz der Privatsphäre entfernen Sie bitte
|
97
|
-
"default": "Inhalt blockiert: {{blockReason}}
|
94
|
+
"RECITATION": "Ihr Inhalt wurde wegen möglicher Urheberrechtsverletzungen blockiert. Bitte verwenden Sie Originalinhalte oder formulieren Sie Ihre Anfrage um.",
|
95
|
+
"SAFETY": "Ihr Inhalt wurde aufgrund von Sicherheitsrichtlinien blockiert. Bitte passen Sie Ihre Anfrage an und vermeiden Sie potenziell schädliche oder unangemessene Inhalte.",
|
96
|
+
"SPII": "Ihr Inhalt könnte sensible personenbezogene Daten enthalten. Zum Schutz der Privatsphäre entfernen Sie bitte diese Informationen und versuchen Sie es erneut.",
|
97
|
+
"default": "Inhalt blockiert: {{blockReason}}. Bitte passen Sie Ihre Anfrage an und versuchen Sie es erneut."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Es tut uns leid, das Kontingent (Quota) für diesen Schlüssel ist erreicht. Bitte überprüfen Sie Ihr Kontoguthaben oder erhöhen Sie das Kontingent des Schlüssels und versuchen Sie es erneut.",
|
100
100
|
"InvalidAccessCode": "Das Passwort ist ungültig oder leer. Bitte geben Sie das richtige Zugangspasswort ein oder fügen Sie einen benutzerdefinierten API-Schlüssel hinzu.",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 ist ein von der DeepSeek Company entwickeltes MoE-Modell. Die Ergebnisse von DeepSeek-V3 übertreffen die anderer Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und stehen in der Leistung auf Augenhöhe mit den weltweit führenden Closed-Source-Modellen GPT-4o und Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-1": {
|
78
|
+
"description": "DeepSeek V3.1: Das nächste Generation Inferenzmodell, das komplexe Schlussfolgerungen und vernetztes Denken verbessert und sich für Aufgaben eignet, die eine tiefgehende Analyse erfordern."
|
79
|
+
},
|
77
80
|
"DeepSeek-V3-Fast": {
|
78
81
|
"description": "Modellanbieter: sophnet-Plattform. DeepSeek V3 Fast ist die Hochgeschwindigkeitsversion mit hohem TPS des DeepSeek V3 0324 Modells, voll funktionsfähig ohne Quantisierung, mit stärkerer Code- und mathematischer Leistungsfähigkeit und schnellerer Reaktionszeit!"
|
79
82
|
},
|
@@ -170,6 +173,9 @@
|
|
170
173
|
"Llama-3.2-90B-Vision-Instruct\t": {
|
171
174
|
"description": "Fortgeschrittene Bildschlussfolgerungsfähigkeiten für Anwendungen im Bereich der visuellen Verständigung."
|
172
175
|
},
|
176
|
+
"Meta-Llama-3-3-70B-Instruct": {
|
177
|
+
"description": "Llama 3.3 70B: Ein vielseitiges Transformer-Modell, geeignet für Dialog- und Generierungsaufgaben."
|
178
|
+
},
|
173
179
|
"Meta-Llama-3.1-405B-Instruct": {
|
174
180
|
"description": "Das auf Anweisungen optimierte Textmodell Llama 3.1 wurde für mehrsprachige Dialoganwendungen optimiert und zeigt in vielen verfügbaren Open-Source- und geschlossenen Chat-Modellen in gängigen Branchenbenchmarks hervorragende Leistungen."
|
175
181
|
},
|
@@ -188,6 +194,9 @@
|
|
188
194
|
"Meta-Llama-3.3-70B-Instruct": {
|
189
195
|
"description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Sprachmodell der Llama-Serie, das eine Leistung bietet, die mit einem 405B-Modell vergleichbar ist, und das zu extrem niedrigen Kosten. Es basiert auf der Transformer-Architektur und wurde durch überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF) in Bezug auf Nützlichkeit und Sicherheit verbessert. Die auf Anweisungen optimierte Version ist speziell für mehrsprachige Dialoge optimiert und übertrifft in mehreren Branchenbenchmarks viele verfügbare Open-Source- und geschlossene Chat-Modelle. Das Wissensdatum endet im Dezember 2023."
|
190
196
|
},
|
197
|
+
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
|
198
|
+
"description": "Llama 4 Maverick: Ein groß angelegtes Modell basierend auf Mixture-of-Experts, das eine effiziente Expertenaktivierungsstrategie bietet, um bei der Inferenz herausragende Leistungen zu erzielen."
|
199
|
+
},
|
191
200
|
"MiniMax-M1": {
|
192
201
|
"description": "Ein völlig neu entwickeltes Inferenzmodell. Weltweit führend: 80K Denkketten x 1M Eingaben, Leistung auf Augenhöhe mit den besten Modellen im Ausland."
|
193
202
|
},
|
@@ -377,6 +386,9 @@
|
|
377
386
|
"Qwen3-235B": {
|
378
387
|
"description": "Qwen3-235B-A22B ist ein MoE (Mixture-of-Experts)-Modell, das den „Hybrid-Reasoning-Modus“ einführt und Nutzern nahtloses Umschalten zwischen „Denkmodus“ und „Nicht-Denkmodus“ ermöglicht. Es unterstützt das Verständnis und die Argumentation in 119 Sprachen und Dialekten und verfügt über leistungsstarke Werkzeugaufruffähigkeiten. In umfassenden Benchmark-Tests zu allgemeinen Fähigkeiten, Programmierung und Mathematik, Mehrsprachigkeit, Wissen und Argumentation konkurriert es mit führenden aktuellen Großmodellen auf dem Markt wie DeepSeek R1, OpenAI o1, o3-mini, Grok 3 und Google Gemini 2.5 Pro."
|
379
388
|
},
|
389
|
+
"Qwen3-235B-A22B-Instruct-2507-FP8": {
|
390
|
+
"description": "Qwen3 235B A22B Instruct 2507: Ein Modell, optimiert für fortgeschrittene Schlussfolgerungen und Dialoganweisungen, mit einer hybriden Expertenarchitektur, die bei großem Parameterumfang die Inferenz-Effizienz bewahrt."
|
391
|
+
},
|
380
392
|
"Qwen3-32B": {
|
381
393
|
"description": "Qwen3-32B ist ein dichtes Modell (Dense Model), das den „Hybrid-Reasoning-Modus“ einführt und Nutzern nahtloses Umschalten zwischen „Denkmodus“ und „Nicht-Denkmodus“ ermöglicht. Aufgrund von Verbesserungen in der Modellarchitektur, einer Erweiterung der Trainingsdaten und effizienteren Trainingsmethoden entspricht die Gesamtleistung der von Qwen2.5-72B."
|
382
394
|
},
|
@@ -1364,6 +1376,12 @@
|
|
1364
1376
|
"google/gemini-2.5-flash": {
|
1365
1377
|
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, speziell entwickelt für anspruchsvolle Aufgaben in den Bereichen logisches Denken, Programmierung, Mathematik und Wissenschaft. Es verfügt über eingebaute \"Denkfähigkeiten\", die es ermöglichen, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell gibt es in zwei Varianten: mit und ohne Denkfähigkeit. Die Preisgestaltung für die Ausgabe variiert erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, vermeidet das Modell ausdrücklich die Erzeugung von Denk-Token.\n\nUm die Denkfähigkeit zu nutzen und Denk-Token zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Kosten für die Denk-Ausgabe führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"Maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1366
1378
|
},
|
1379
|
+
"google/gemini-2.5-flash-image-preview": {
|
1380
|
+
"description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
|
1381
|
+
},
|
1382
|
+
"google/gemini-2.5-flash-image-preview:free": {
|
1383
|
+
"description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
|
1384
|
+
},
|
1367
1385
|
"google/gemini-2.5-flash-preview": {
|
1368
1386
|
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
1369
1387
|
},
|
@@ -1535,6 +1553,9 @@
|
|
1535
1553
|
"gpt-oss": {
|
1536
1554
|
"description": "GPT-OSS 20B ist ein von OpenAI veröffentlichtes Open-Source-Sprachmodell, das die MXFP4-Quantisierungstechnologie verwendet und sich für den Einsatz auf High-End-Consumer-GPUs oder Apple Silicon Macs eignet. Dieses Modell zeigt hervorragende Leistungen bei der Dialoggenerierung, Codeerstellung und bei Inferenzaufgaben und unterstützt Funktionsaufrufe sowie die Nutzung von Werkzeugen."
|
1537
1555
|
},
|
1556
|
+
"gpt-oss-120b": {
|
1557
|
+
"description": "GPT-OSS-120B MXFP4 quantisierte Transformer-Struktur, die auch bei begrenzten Ressourcen starke Leistung beibehält."
|
1558
|
+
},
|
1538
1559
|
"gpt-oss:120b": {
|
1539
1560
|
"description": "GPT-OSS 120B ist ein von OpenAI veröffentlichtes großes Open-Source-Sprachmodell, das die MXFP4-Quantisierungstechnologie verwendet und als Flaggschiff-Modell gilt. Es erfordert den Betrieb auf Multi-GPU- oder Hochleistungs-Workstation-Umgebungen und bietet herausragende Leistungen bei komplexen Inferenzaufgaben, Codegenerierung und mehrsprachiger Verarbeitung. Es unterstützt fortgeschrittene Funktionsaufrufe und die Integration von Werkzeugen."
|
1540
1561
|
},
|
@@ -11,6 +11,9 @@
|
|
11
11
|
"aihubmix": {
|
12
12
|
"description": "AiHubMix bietet über eine einheitliche API-Schnittstelle Zugriff auf verschiedene KI-Modelle."
|
13
13
|
},
|
14
|
+
"akashchat": {
|
15
|
+
"description": "Akash ist ein genehmigungsfreier Cloud-Ressourcenmarkt, dessen Preisgestaltung im Vergleich zu herkömmlichen Cloud-Anbietern wettbewerbsfähig ist."
|
16
|
+
},
|
14
17
|
"anthropic": {
|
15
18
|
"description": "Anthropic ist ein Unternehmen, das sich auf Forschung und Entwicklung im Bereich der künstlichen Intelligenz spezialisiert hat und eine Reihe fortschrittlicher Sprachmodelle anbietet, darunter Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus und Claude 3 Haiku. Diese Modelle erreichen ein ideales Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten und sind für eine Vielzahl von Anwendungsszenarien geeignet, von unternehmensweiten Arbeitslasten bis hin zu schnellen Reaktionen. Claude 3.5 Sonnet, als neuestes Modell, hat in mehreren Bewertungen hervorragend abgeschnitten und bietet gleichzeitig ein hohes Preis-Leistungs-Verhältnis."
|
16
19
|
},
|
package/locales/en-US/chat.json
CHANGED
@@ -52,7 +52,11 @@
|
|
52
52
|
"thinking": {
|
53
53
|
"title": "Deep Thinking Switch"
|
54
54
|
},
|
55
|
-
"title": "Model Extension Features"
|
55
|
+
"title": "Model Extension Features",
|
56
|
+
"urlContext": {
|
57
|
+
"desc": "When enabled, web links will be automatically parsed to retrieve the actual webpage context content",
|
58
|
+
"title": "Extract Webpage Link Content"
|
59
|
+
}
|
56
60
|
},
|
57
61
|
"history": {
|
58
62
|
"title": "The assistant will only remember the last {{count}} messages."
|
@@ -125,6 +129,7 @@
|
|
125
129
|
"inputWriteCached": "Input cache write",
|
126
130
|
"output": "Output",
|
127
131
|
"outputAudio": "Audio Output",
|
132
|
+
"outputImage": "Image Output",
|
128
133
|
"outputText": "Text Output",
|
129
134
|
"outputTitle": "Output Details",
|
130
135
|
"reasoning": "Deep Thinking",
|
package/locales/en-US/error.json
CHANGED
@@ -87,13 +87,13 @@
|
|
87
87
|
"FreePlanLimit": "You are currently a free user and cannot use this feature. Please upgrade to a paid plan to continue using it.",
|
88
88
|
"GoogleAIBlockReason": {
|
89
89
|
"BLOCKLIST": "Your content contains prohibited terms. Please review and modify your input, then try again.",
|
90
|
-
"IMAGE_SAFETY": "The generated image
|
91
|
-
"LANGUAGE": "The language you
|
90
|
+
"IMAGE_SAFETY": "The generated image was blocked for safety reasons. Please try modifying your image request.",
|
91
|
+
"LANGUAGE": "The language you are using is not supported. Please try again in English or another supported language.",
|
92
92
|
"OTHER": "The content was blocked for an unknown reason. Please try rephrasing your request.",
|
93
93
|
"PROHIBITED_CONTENT": "Your request may contain prohibited content. Please adjust your request to comply with the usage guidelines.",
|
94
94
|
"RECITATION": "Your content was blocked due to potential copyright concerns. Please try using original content or rephrase your request.",
|
95
|
-
"SAFETY": "Your content was blocked
|
96
|
-
"SPII": "Your content may contain sensitive
|
95
|
+
"SAFETY": "Your content was blocked for safety policy reasons. Please adjust your request to avoid potentially harmful or inappropriate content.",
|
96
|
+
"SPII": "Your content may contain sensitive personally identifiable information (PII). To protect privacy, please remove any sensitive details and try again.",
|
97
97
|
"default": "Content blocked: {{blockReason}}. Please adjust your request and try again."
|
98
98
|
},
|
99
99
|
"InsufficientQuota": "Sorry, the quota for this key has been reached. Please check your account balance or increase the key quota and try again.",
|