@lobehub/chat 1.118.0 → 1.118.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (83) hide show
  1. package/.env.example +8 -0
  2. package/CHANGELOG.md +33 -0
  3. package/changelog/v1.json +12 -0
  4. package/locales/ar/chat.json +6 -1
  5. package/locales/ar/error.json +8 -8
  6. package/locales/ar/models.json +21 -0
  7. package/locales/ar/providers.json +3 -0
  8. package/locales/bg-BG/chat.json +6 -1
  9. package/locales/bg-BG/error.json +8 -8
  10. package/locales/bg-BG/models.json +21 -0
  11. package/locales/bg-BG/providers.json +3 -0
  12. package/locales/de-DE/chat.json +6 -1
  13. package/locales/de-DE/error.json +7 -7
  14. package/locales/de-DE/models.json +21 -0
  15. package/locales/de-DE/providers.json +3 -0
  16. package/locales/en-US/chat.json +6 -1
  17. package/locales/en-US/error.json +4 -4
  18. package/locales/en-US/models.json +21 -0
  19. package/locales/en-US/providers.json +3 -0
  20. package/locales/es-ES/chat.json +6 -1
  21. package/locales/es-ES/error.json +9 -9
  22. package/locales/es-ES/models.json +21 -0
  23. package/locales/es-ES/providers.json +3 -0
  24. package/locales/fa-IR/chat.json +6 -1
  25. package/locales/fa-IR/error.json +9 -9
  26. package/locales/fa-IR/models.json +21 -0
  27. package/locales/fa-IR/providers.json +3 -0
  28. package/locales/fr-FR/chat.json +6 -1
  29. package/locales/fr-FR/error.json +9 -9
  30. package/locales/fr-FR/models.json +21 -0
  31. package/locales/fr-FR/providers.json +3 -0
  32. package/locales/it-IT/chat.json +6 -1
  33. package/locales/it-IT/error.json +7 -7
  34. package/locales/it-IT/models.json +21 -0
  35. package/locales/it-IT/providers.json +3 -0
  36. package/locales/ja-JP/chat.json +6 -1
  37. package/locales/ja-JP/error.json +8 -8
  38. package/locales/ja-JP/models.json +21 -0
  39. package/locales/ja-JP/providers.json +3 -0
  40. package/locales/ko-KR/chat.json +6 -1
  41. package/locales/ko-KR/error.json +8 -8
  42. package/locales/ko-KR/models.json +21 -0
  43. package/locales/ko-KR/providers.json +3 -0
  44. package/locales/nl-NL/chat.json +6 -1
  45. package/locales/nl-NL/error.json +8 -8
  46. package/locales/nl-NL/models.json +21 -0
  47. package/locales/nl-NL/providers.json +3 -0
  48. package/locales/pl-PL/chat.json +6 -1
  49. package/locales/pl-PL/error.json +9 -9
  50. package/locales/pl-PL/models.json +21 -0
  51. package/locales/pl-PL/providers.json +3 -0
  52. package/locales/pt-BR/chat.json +6 -1
  53. package/locales/pt-BR/error.json +8 -8
  54. package/locales/pt-BR/models.json +21 -0
  55. package/locales/pt-BR/providers.json +3 -0
  56. package/locales/ru-RU/chat.json +6 -1
  57. package/locales/ru-RU/error.json +7 -7
  58. package/locales/ru-RU/models.json +21 -0
  59. package/locales/ru-RU/providers.json +3 -0
  60. package/locales/tr-TR/chat.json +6 -1
  61. package/locales/tr-TR/error.json +9 -9
  62. package/locales/tr-TR/models.json +21 -0
  63. package/locales/tr-TR/providers.json +3 -0
  64. package/locales/vi-VN/chat.json +6 -1
  65. package/locales/vi-VN/models.json +21 -0
  66. package/locales/vi-VN/providers.json +3 -0
  67. package/locales/zh-CN/chat.json +6 -1
  68. package/locales/zh-CN/models.json +21 -0
  69. package/locales/zh-CN/providers.json +3 -0
  70. package/locales/zh-TW/chat.json +6 -1
  71. package/locales/zh-TW/error.json +4 -4
  72. package/locales/zh-TW/models.json +21 -0
  73. package/locales/zh-TW/providers.json +3 -0
  74. package/next.config.ts +22 -6
  75. package/package.json +1 -1
  76. package/packages/model-runtime/src/google/index.ts +17 -3
  77. package/packages/model-runtime/src/types/chat.ts +4 -0
  78. package/packages/types/src/agent/chatConfig.ts +1 -0
  79. package/packages/types/src/aiModel.ts +2 -1
  80. package/src/config/aiModels/google.ts +8 -6
  81. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
  82. package/src/locales/default/chat.ts +4 -0
  83. package/src/services/chat.ts +4 -0
package/.env.example CHANGED
@@ -4,6 +4,14 @@
4
4
  # Specify your API Key selection method, currently supporting `random` and `turn`.
5
5
  # API_KEY_SELECT_MODE=random
6
6
 
7
+ ########################################
8
+ ########### Security Settings ###########
9
+ ########################################
10
+
11
+ # Control Content Security Policy headers
12
+ # Set to '1' to enable X-Frame-Options and Content-Security-Policy headers
13
+ # Default is '0' (enabled)
14
+ # ENABLED_CSP=1
7
15
 
8
16
  ########################################
9
17
  ########## AI Provider Service #########
package/CHANGELOG.md CHANGED
@@ -2,6 +2,39 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.118.1](https://github.com/lobehub/lobe-chat/compare/v1.118.0...v1.118.1)
6
+
7
+ <sup>Released on **2025-08-29**</sup>
8
+
9
+ #### 🐛 Bug Fixes
10
+
11
+ - **misc**: Add Content-Security-Policy env.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Support Gemini URL context tool.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### What's fixed
23
+
24
+ - **misc**: Add Content-Security-Policy env, closes [#8752](https://github.com/lobehub/lobe-chat/issues/8752) ([9250540](https://github.com/lobehub/lobe-chat/commit/9250540))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Support Gemini URL context tool, closes [#8731](https://github.com/lobehub/lobe-chat/issues/8731) ([5d4ed11](https://github.com/lobehub/lobe-chat/commit/5d4ed11))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
5
38
  ## [Version 1.118.0](https://github.com/lobehub/lobe-chat/compare/v1.117.1...v1.118.0)
6
39
 
7
40
  <sup>Released on **2025-08-29**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,16 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "fixes": [
5
+ "Add Content-Security-Policy env."
6
+ ],
7
+ "improvements": [
8
+ "Support Gemini URL context tool."
9
+ ]
10
+ },
11
+ "date": "2025-08-29",
12
+ "version": "1.118.1"
13
+ },
2
14
  {
3
15
  "children": {
4
16
  "features": [
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "مفتاح التفكير العميق"
54
54
  },
55
- "title": "وظائف توسيع النموذج"
55
+ "title": "وظائف توسيع النموذج",
56
+ "urlContext": {
57
+ "desc": "عند التفعيل، سيتم تحليل روابط الويب تلقائيًا للحصول على محتوى السياق الفعلي للصفحة",
58
+ "title": "استخراج محتوى رابط الويب"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "سيتذكر المساعد آخر {{count}} رسالة فقط"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "تخزين إدخال الكتابة",
126
130
  "output": "مخرجات",
127
131
  "outputAudio": "مخرجات صوتية",
132
+ "outputImage": "إخراج الصورة",
128
133
  "outputText": "مخرجات نصية",
129
134
  "outputTitle": "تفاصيل المخرجات",
130
135
  "reasoning": "تفكير عميق",
@@ -86,15 +86,15 @@
86
86
  "ExceededContextWindow": "المحتوى المطلوب الحالي يتجاوز الطول الذي يمكن للنموذج معالجته، يرجى تقليل كمية المحتوى ثم إعادة المحاولة",
87
87
  "FreePlanLimit": "أنت حاليًا مستخدم مجاني، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة مدفوعة للمتابعة",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "يحتوي محتواك على كلمات محظورة. الرجاء التحقق من مدخلاتك وتعديلها ثم المحاولة مرة أخرى.",
90
- "IMAGE_SAFETY": "تم حظر المحتوى الصوري لأسباب تتعلق بالسلامة. يرجى محاولة تعديل طلب إنشاء الصورة.",
91
- "LANGUAGE": "اللغة التي استخدمتها غير مدعومة حالياً. يرجى المحاولة مرة أخرى باستخدام الإنجليزية أو إحدى اللغات المدعومة.",
89
+ "BLOCKLIST": "يحتوي المحتوى الذي أرسلته على كلمات محظورة. يرجى مراجعته وتعديل مدخلاتك ثم المحاولة مرة أخرى.",
90
+ "IMAGE_SAFETY": "تم حظر المحتوى الصوري الناتج لأسباب تتعلق بالأمان. يرجى محاولة تعديل طلب توليد الصورة.",
91
+ "LANGUAGE": "اللغة التي تستخدمها غير مدعومة مؤقتًا. يرجى المحاولة باللغة الإنجليزية أو بلغة أخرى مدعومة.",
92
92
  "OTHER": "تم حظر المحتوى لسبب غير معروف. يرجى محاولة إعادة صياغة طلبك.",
93
- "PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك والتأكد من أن المحتوى يلتزم بسياسات الاستخدام.",
94
- "RECITATION": "تم حظر المحتوى لأنه قد ينطوي على مسائل حقوق نشر. يرجى محاولة استخدام محتوى أصلي أو إعادة صياغة طلبك.",
95
- "SAFETY": "تم حظر المحتوى بسبب سياسات الأمان. يرجى محاولة تعديل طلبك وتجنب تضمين محتوى قد يكون ضاراً أو غير مناسب.",
96
- "SPII": "قد يحتوي محتواك على معلومات شخصية حساسة. لحماية الخصوصية، يرجى إزالة المعلومات الحساسة ثم المحاولة مرة أخرى.",
97
- "default": "تم حظر المحتوى: {{blockReason}}。请调整您的请求内容后重试。"
93
+ "PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك لضمان توافقه مع سياسات الاستخدام.",
94
+ "RECITATION": "تم حظر محتواك لكونه قد ينتهك حقوق النشر. يرجى محاولة استخدام محتوى أصلي أو إعادة صياغة طلبك.",
95
+ "SAFETY": "تم حظر المحتوى بسبب سياسات السلامة. يرجى تعديل طلبك لتجنب أي محتوى ضار أو غير مناسب.",
96
+ "SPII": "قد يحتوي المحتوى على معلومات شخصية حساسة. لحماية الخصوصية، يرجى إزالة المعلومات الحساسة ثم المحاولة مرة أخرى.",
97
+ "default": "تم حظر المحتوى: {{blockReason}}. يرجى تعديل طلبك ثم المحاولة مرة أخرى."
98
98
  },
99
99
  "InsufficientQuota": "عذرًا، لقد reached الحد الأقصى للحصة (quota) لهذه المفتاح، يرجى التحقق من رصيد الحساب الخاص بك أو زيادة حصة المفتاح ثم المحاولة مرة أخرى",
100
100
  "InvalidAccessCode": "كلمة المرور غير صحيحة أو فارغة، يرجى إدخال كلمة مرور الوصول الصحيحة أو إضافة مفتاح API مخصص",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 هو نموذج MoE تم تطويره ذاتيًا بواسطة شركة DeepSeek. حقق DeepSeek-V3 نتائج تقييم تفوقت على نماذج مفتوحة المصدر الأخرى مثل Qwen2.5-72B و Llama-3.1-405B، وفي الأداء ينافس النماذج المغلقة الرائدة عالميًا مثل GPT-4o و Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: نموذج الاستدلال من الجيل التالي، يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقاً."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "مزود النموذج: منصة sophnet. DeepSeek V3 Fast هو النسخة السريعة عالية TPS من إصدار DeepSeek V3 0324، غير مكوّن بالكامل، يتمتع بقدرات برمجية ورياضية أقوى واستجابة أسرع!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "قدرات استدلال الصور المتقدمة المناسبة لتطبيقات الوكلاء في الفهم البصري."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: نموذج Transformer متعدد الاستخدامات، مناسب للحوار ومهام التوليد."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "نموذج نصي تم تعديله تحت الإشراف من Llama 3.1، تم تحسينه لحالات الحوار متعددة اللغات، حيث يتفوق في العديد من نماذج الدردشة مفتوحة ومغلقة المصدر المتاحة في المعايير الصناعية الشائعة."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 هو النموذج اللغوي مفتوح المصدر متعدد اللغات الأكثر تقدمًا في سلسلة Llama، حيث يقدم تجربة تنافس أداء نموذج 405B بتكلفة منخفضة للغاية. يعتمد على هيكل Transformer، وتم تحسين فائدته وأمانه من خلال التعديل الدقيق تحت الإشراف (SFT) والتعلم المعزز من خلال ردود الفعل البشرية (RLHF). تم تحسين إصدار التعديل الخاص به ليكون مثاليًا للحوار متعدد اللغات، حيث يتفوق في العديد من المعايير الصناعية على العديد من نماذج الدردشة مفتوحة ومغلقة المصدر. تاريخ انتهاء المعرفة هو ديسمبر 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: نموذج واسع النطاق قائم على مزيج من الخبراء، يوفر استراتيجية تفعيل خبراء فعالة لتحقيق أداء متميز في الاستدلال."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "نموذج استدلال جديد مطور ذاتيًا. رائد عالميًا: 80 ألف سلسلة تفكير × 1 مليون إدخال، أداء يضاهي أفضل النماذج العالمية."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B هو نموذج MoE (نموذج خبير مختلط) يقدم \"وضع الاستدلال المختلط\"، ويدعم المستخدمين في التبديل السلس بين \"وضع التفكير\" و\"وضع عدم التفكير\". يدعم فهم واستدلال 119 لغة ولهجة، ويتميز بقدرات قوية على استدعاء الأدوات. في اختبارات الأداء الشاملة، والبرمجة والرياضيات، واللغات المتعددة، والمعرفة والاستدلال، ينافس هذا النموذج النماذج الرائدة في السوق مثل DeepSeek R1، OpenAI o1، o3-mini، Grok 3، وGoogle Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: نموذج موجه للاستدلال المتقدم وتحسين أوامر الحوار، يعتمد على بنية خبراء مختلطة للحفاظ على كفاءة الاستدلال مع عدد كبير من المعاملات."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B هو نموذج كثيف (Dense Model) يقدم \"وضع الاستدلال المختلط\"، ويدعم التبديل السلس بين \"وضع التفكير\" و\"وضع عدم التفكير\". بفضل تحسينات في بنية النموذج، وزيادة بيانات التدريب، وأساليب تدريب أكثر فعالية، يقدم أداءً يعادل تقريبًا Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash هو النموذج الرئيسي الأكثر تقدمًا من Google، مصمم خصيصًا للمهام المتقدمة في الاستدلال، الترميز، الرياضيات والعلوم. يحتوي على قدرة مدمجة على \"التفكير\"، مما يمكنه من تقديم استجابات بدقة أعلى ومعالجة سياقية أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نسختين: نسخة التفكير ونسخة غير التفكير. تختلف تكلفة الإخراج بشكل ملحوظ بناءً على تفعيل قدرة التفكير. إذا اخترت النسخة القياسية (بدون لاحقة \":thinking\"), سيتجنب النموذج بوضوح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستلام رموز التفكير، يجب عليك اختيار النسخة \":thinking\"، والتي ستؤدي إلى تكلفة إخراج أعلى للتفكير.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ومناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Mac بمعالج Apple Silicon. يتميز هذا النموذج بأداء ممتاز في توليد المحادثات، وكتابة الأكواد، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4: هيكل Transformer محسّن بالكمية، يحافظ على أداء قوي حتى في ظل محدودية الموارد."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ويعتبر نموذجًا رائدًا. يتطلب تشغيله بيئة متعددة وحدات معالجة الرسومات أو محطة عمل عالية الأداء، ويتميز بأداء متفوق في الاستدلال المعقد، وتوليد الأكواد، ومعالجة اللغات المتعددة، ويدعم استدعاء الدوال المتقدمة وتكامل الأدوات."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "يوفر AiHubMix الوصول إلى نماذج الذكاء الاصطناعي المتعددة من خلال واجهة برمجة تطبيقات موحدة."
13
13
  },
14
+ "akashchat": {
15
+ "description": "آكاش هو سوق موارد سحابية بدون ترخيص، يتميز بأسعار تنافسية مقارنة بمزودي السحابة التقليديين."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic هي شركة تركز على أبحاث وتطوير الذكاء الاصطناعي، وتقدم مجموعة من نماذج اللغة المتقدمة، مثل Claude 3.5 Sonnet وClaude 3 Sonnet وClaude 3 Opus وClaude 3 Haiku. تحقق هذه النماذج توازنًا مثاليًا بين الذكاء والسرعة والتكلفة، وتناسب مجموعة متنوعة من سيناريوهات التطبيقات، من أحمال العمل على مستوى المؤسسات إلى الاستجابات السريعة. يعتبر Claude 3.5 Sonnet أحدث نماذجها، وقد أظهر أداءً ممتازًا في العديد من التقييمات مع الحفاظ على نسبة تكلفة فعالة."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Превключвател за дълбоко мислене"
54
54
  },
55
- "title": "Разширени функции на модела"
55
+ "title": "Разширени функции на модела",
56
+ "urlContext": {
57
+ "desc": "Когато е включено, автоматично ще се анализират уеб връзки, за да се получи реалното съдържание на уеб страницата",
58
+ "title": "Извличане на съдържание от уеб връзки"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Асистентът ще запомни само последните {{count}} съобщения"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Входящи кеширани данни",
126
130
  "output": "Изход",
127
131
  "outputAudio": "Аудио изход",
132
+ "outputImage": "Изходно изображение",
128
133
  "outputText": "Текстов изход",
129
134
  "outputTitle": "Детайли за изхода",
130
135
  "reasoning": "Дълбочинно разсъждение",
@@ -86,14 +86,14 @@
86
86
  "ExceededContextWindow": "Текущото съдържание на заявката надвишава дължината, която моделът може да обработи. Моля, намалете обема на съдържанието и опитайте отново.",
87
87
  "FreePlanLimit": "В момента сте потребител на безплатен план и не можете да използвате тази функционалност. Моля, надстройте до платен план, за да продължите да я използвате.",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля, прегледайте и коригирайте входа си и опитайте отново。",
90
- "IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за сигурност. Моля, опитайте да модифицирате заявката за генериране на изображение。",
91
- "LANGUAGE": "Езикът, който използвате, в момента не се поддържа. Моля, опитайте с английски или друг поддържан език。",
92
- "OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката си。",
93
- "PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да съответства на правилата за използване。",
94
- "RECITATION": "Вашето съдържание е блокирано поради възможни нарушения на авторското право. Моля, опитайте с оригинално съдържание или преформулирайте заявката си。",
95
- "SAFETY": "Вашето съдържание е блокирано поради политики за безопасност. Моля, коригирайте заявката си, като избягвате потенциално вредно или неподходящо съдържание。",
96
- "SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За защита на поверителността, моля премахнете съответната чувствителна информация и опитайте отново。",
89
+ "BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля, проверете и коригирайте входа си и опитайте отново.",
90
+ "IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за безопасност. Моля, опитайте да промените заявката за генериране на изображение.",
91
+ "LANGUAGE": "Езикът, който използвате, все още не се поддържа. Моля, опитайте да зададете въпроса на английски или на друг поддържан език.",
92
+ "OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката си.",
93
+ "PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да отговаря на правилата за ползване.",
94
+ "RECITATION": "Съдържанието ви е блокирано поради възможни проблеми с авторските права. Моля, опитайте да използвате оригинално съдържание или да преформулирате заявката си.",
95
+ "SAFETY": "Вашето съдържание е блокирано поради правила за безопасност. Моля, опитайте да промените заявката, като избягвате потенциално вредно или неподходящо съдържание.",
96
+ "SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За да защитите поверителността, моля, премахнете съответната чувствителна информация и опитайте отново.",
97
97
  "default": "Съдържанието е блокирано: {{blockReason}}。请调整您的请求内容后重试。"
98
98
  },
99
99
  "InsufficientQuota": "Съжаляваме, квотата за този ключ е достигнала лимита. Моля, проверете баланса на акаунта си или увеличете квотата на ключа и опитайте отново.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 е MoE модел, разработен от компанията DeepSeek. DeepSeek-V3 постига резултати в множество оценки, които надминават други отворени модели като Qwen2.5-72B и Llama-3.1-405B, като по отношение на производителност е наравно с водещите затворени модели в света като GPT-4o и Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: Следващо поколение модел за разсъждение, подобряващ сложното разсъждение и веригата на мислене, подходящ за задачи, изискващи задълбочен анализ."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Доставчик на модела: платформа sophnet. DeepSeek V3 Fast е високоскоростната версия с висока TPS на DeepSeek V3 0324, с пълна точност без квантизация, с по-силни кодови и математически възможности и по-бърз отговор!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Напреднали способности за визуално разсъждение, подходящи за приложения на агенти за визуално разбиране."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: Универсален трансформър модел, подходящ за диалог и задачи за генериране."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия с оптимизация за инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от наличните отворени и затворени чат модели на множество индустриални бенчмаркове. Краен срок за знанията е декември 2023 г."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: Голям модел, базиран на Mixture-of-Experts, предлагащ ефективна стратегия за активиране на експерти за отлични резултати при разсъждение."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Изцяло ново самостоятелно разработено модел за разсъждение. Световен лидер: 80K вериги на мислене x 1M вход, с резултати, сравними с водещите модели в чужбина."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B е MoE (хибриден експертен модел), който въвежда „хибриден режим на разсъждение“, позволяващ на потребителите безпроблемно превключване между „режим мислене“ и „режим без мислене“. Поддържа разбиране и разсъждение на 119 езика и диалекта и разполага с мощни възможности за извикване на инструменти. В множество базови тестове за общи способности, кодиране, математика, многоезичност, знания и разсъждение, той може да се конкурира с водещите големи модели на пазара като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: Модел, оптимизиран за напреднало разсъждение и диалогови инструкции, с хибридна експертна архитектура, поддържаща ефективност при голям брой параметри."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B е плътен модел (Dense Model), който въвежда „хибриден режим на разсъждение“, позволяващ на потребителите безпроблемно превключване между „режим мислене“ и „режим без мислене“. Благодарение на подобрения в архитектурата на модела, увеличени тренировъчни данни и по-ефективни методи за обучение, общата производителност е сравнима с тази на Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash е най-усъвършенстваният основен модел на Google, специално проектиран за напреднали задачи по разсъждение, кодиране, математика и наука. Той включва вградена способност за „мислене“, която му позволява да предоставя отговори с по-висока точност и по-детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали способността за мислене е активирана. Ако изберете стандартния вариант (без суфикса „:thinking“), моделът ясно избягва генерирането на мисловни токени.\n\nЗа да използвате способността за мислене и да получавате мисловни токени, трябва да изберете варианта „:thinking“, което ще доведе до по-висока цена за изход с мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра „максимален брой токени за разсъждение“, както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B е отворен голям езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, подходящ за работа на висок клас потребителски GPU или Apple Silicon Mac. Този модел се отличава с отлични резултати в генерирането на диалози, писането на код и задачи за разсъждение, като поддържа извикване на функции и използване на инструменти."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4 квантизиран трансформър модел, който запазва силна производителност при ограничени ресурси."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B е голям отворен езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, предназначен за флагмански клас модели. Изисква многократни GPU или високопроизводителна работна станция за работа, с изключителни възможности в сложни разсъждения, генериране на код и многоезична обработка, поддържайки усъвършенствано извикване на функции и интеграция на инструменти."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix предоставя достъп до множество AI модели чрез единен API интерфейс."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash е пазар за облачни ресурси без нужда от разрешение, който предлага конкурентни цени в сравнение с традиционните облачни доставчици."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic е компания, специализирана в изследвания и разработка на изкуствен интелект, предлагаща набор от напреднали езикови модели, като Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus и Claude 3 Haiku. Тези модели постигат идеален баланс между интелигентност, скорост и разходи, подходящи за различни приложения, от корпоративни натоварвания до бързи отговори. Claude 3.5 Sonnet, като най-новия им модел, показва отлични резултати в множество оценки, като същевременно поддържа висока цена-качество."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Tiefdenk-Schalter"
54
54
  },
55
- "title": "Modell Erweiterungsfunktionen"
55
+ "title": "Modell Erweiterungsfunktionen",
56
+ "urlContext": {
57
+ "desc": "Wenn aktiviert, werden Webseiten-Links automatisch analysiert, um den tatsächlichen Webseiteninhalt zu erfassen",
58
+ "title": "Webseiten-Link-Inhalt extrahieren"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Der Assistent wird nur die letzten {{count}} Nachrichten speichern"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Eingabe Cache schreiben",
126
130
  "output": "Ausgabe",
127
131
  "outputAudio": "Audioausgabe",
132
+ "outputImage": "Bildausgabe",
128
133
  "outputText": "Text-Ausgabe",
129
134
  "outputTitle": "Ausgabedetails",
130
135
  "reasoning": "Tiefes Denken",
@@ -86,15 +86,15 @@
86
86
  "ExceededContextWindow": "Der aktuelle Anfrageinhalt überschreitet die von dem Modell verarbeitbare Länge. Bitte reduzieren Sie die Menge des Inhalts und versuchen Sie es erneut.",
87
87
  "FreePlanLimit": "Sie sind derzeit ein kostenloser Benutzer und können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein kostenpflichtiges Abonnement, um fortzufahren.",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "Ihr Inhalt enthält verbotene Begriffe. Bitte überprüfen und ändern Sie Ihre Eingabe und versuchen Sie es erneut.",
90
- "IMAGE_SAFETY": "Die erzeugten Bildinhalte wurden aus Sicherheitsgründen blockiert. Bitte versuchen Sie, Ihre Bildgenerierungsanfrage zu ändern.",
89
+ "BLOCKLIST": "Ihr Inhalt enthält verbotene Wörter. Bitte prüfen und ändern Sie Ihre Eingabe und versuchen Sie es erneut.",
90
+ "IMAGE_SAFETY": "Die Bildgenerierung wurde aus Sicherheitsgründen blockiert. Bitte passen Sie Ihre Anfrage zur Bildgenerierung an und versuchen Sie es erneut.",
91
91
  "LANGUAGE": "Die von Ihnen verwendete Sprache wird derzeit nicht unterstützt. Bitte versuchen Sie es erneut auf Englisch oder in einer anderen unterstützten Sprache.",
92
- "OTHER": "Der Inhalt wurde aus einem unbekannten Grund blockiert. Bitte formulieren Sie Ihre Anfrage neu und versuchen Sie es erneut.",
92
+ "OTHER": "Der Inhalt wurde aus unbekannten Gründen blockiert. Bitte formulieren Sie Ihre Anfrage neu.",
93
93
  "PROHIBITED_CONTENT": "Ihre Anfrage könnte verbotene Inhalte enthalten. Bitte passen Sie Ihre Anfrage an und stellen Sie sicher, dass sie den Nutzungsrichtlinien entspricht.",
94
- "RECITATION": "Ihr Inhalt wurde möglicherweise wegen möglicher Urheberrechtsverletzungen blockiert. Bitte verwenden Sie eigene Inhalte oder formulieren Sie Ihre Anfrage um.",
95
- "SAFETY": "Ihr Inhalt wurde aufgrund der Sicherheitsrichtlinien blockiert. Bitte passen Sie Ihre Anfrage an und vermeiden Sie potenziell schädliche oder unangemessene Inhalte.",
96
- "SPII": "Ihr Inhalt könnte sensible personenbezogene Daten enthalten. Zum Schutz der Privatsphäre entfernen Sie bitte die betreffenden Informationen und versuchen Sie es erneut.",
97
- "default": "Inhalt blockiert: {{blockReason}}。请调整您的请求内容后重试。"
94
+ "RECITATION": "Ihr Inhalt wurde wegen möglicher Urheberrechtsverletzungen blockiert. Bitte verwenden Sie Originalinhalte oder formulieren Sie Ihre Anfrage um.",
95
+ "SAFETY": "Ihr Inhalt wurde aufgrund von Sicherheitsrichtlinien blockiert. Bitte passen Sie Ihre Anfrage an und vermeiden Sie potenziell schädliche oder unangemessene Inhalte.",
96
+ "SPII": "Ihr Inhalt könnte sensible personenbezogene Daten enthalten. Zum Schutz der Privatsphäre entfernen Sie bitte diese Informationen und versuchen Sie es erneut.",
97
+ "default": "Inhalt blockiert: {{blockReason}}. Bitte passen Sie Ihre Anfrage an und versuchen Sie es erneut."
98
98
  },
99
99
  "InsufficientQuota": "Es tut uns leid, das Kontingent (Quota) für diesen Schlüssel ist erreicht. Bitte überprüfen Sie Ihr Kontoguthaben oder erhöhen Sie das Kontingent des Schlüssels und versuchen Sie es erneut.",
100
100
  "InvalidAccessCode": "Das Passwort ist ungültig oder leer. Bitte geben Sie das richtige Zugangspasswort ein oder fügen Sie einen benutzerdefinierten API-Schlüssel hinzu.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 ist ein von der DeepSeek Company entwickeltes MoE-Modell. Die Ergebnisse von DeepSeek-V3 übertreffen die anderer Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und stehen in der Leistung auf Augenhöhe mit den weltweit führenden Closed-Source-Modellen GPT-4o und Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: Das nächste Generation Inferenzmodell, das komplexe Schlussfolgerungen und vernetztes Denken verbessert und sich für Aufgaben eignet, die eine tiefgehende Analyse erfordern."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Modellanbieter: sophnet-Plattform. DeepSeek V3 Fast ist die Hochgeschwindigkeitsversion mit hohem TPS des DeepSeek V3 0324 Modells, voll funktionsfähig ohne Quantisierung, mit stärkerer Code- und mathematischer Leistungsfähigkeit und schnellerer Reaktionszeit!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Fortgeschrittene Bildschlussfolgerungsfähigkeiten für Anwendungen im Bereich der visuellen Verständigung."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: Ein vielseitiges Transformer-Modell, geeignet für Dialog- und Generierungsaufgaben."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Das auf Anweisungen optimierte Textmodell Llama 3.1 wurde für mehrsprachige Dialoganwendungen optimiert und zeigt in vielen verfügbaren Open-Source- und geschlossenen Chat-Modellen in gängigen Branchenbenchmarks hervorragende Leistungen."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 ist das fortschrittlichste mehrsprachige Open-Source-Sprachmodell der Llama-Serie, das eine Leistung bietet, die mit einem 405B-Modell vergleichbar ist, und das zu extrem niedrigen Kosten. Es basiert auf der Transformer-Architektur und wurde durch überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF) in Bezug auf Nützlichkeit und Sicherheit verbessert. Die auf Anweisungen optimierte Version ist speziell für mehrsprachige Dialoge optimiert und übertrifft in mehreren Branchenbenchmarks viele verfügbare Open-Source- und geschlossene Chat-Modelle. Das Wissensdatum endet im Dezember 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: Ein groß angelegtes Modell basierend auf Mixture-of-Experts, das eine effiziente Expertenaktivierungsstrategie bietet, um bei der Inferenz herausragende Leistungen zu erzielen."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Ein völlig neu entwickeltes Inferenzmodell. Weltweit führend: 80K Denkketten x 1M Eingaben, Leistung auf Augenhöhe mit den besten Modellen im Ausland."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B ist ein MoE (Mixture-of-Experts)-Modell, das den „Hybrid-Reasoning-Modus“ einführt und Nutzern nahtloses Umschalten zwischen „Denkmodus“ und „Nicht-Denkmodus“ ermöglicht. Es unterstützt das Verständnis und die Argumentation in 119 Sprachen und Dialekten und verfügt über leistungsstarke Werkzeugaufruffähigkeiten. In umfassenden Benchmark-Tests zu allgemeinen Fähigkeiten, Programmierung und Mathematik, Mehrsprachigkeit, Wissen und Argumentation konkurriert es mit führenden aktuellen Großmodellen auf dem Markt wie DeepSeek R1, OpenAI o1, o3-mini, Grok 3 und Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: Ein Modell, optimiert für fortgeschrittene Schlussfolgerungen und Dialoganweisungen, mit einer hybriden Expertenarchitektur, die bei großem Parameterumfang die Inferenz-Effizienz bewahrt."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B ist ein dichtes Modell (Dense Model), das den „Hybrid-Reasoning-Modus“ einführt und Nutzern nahtloses Umschalten zwischen „Denkmodus“ und „Nicht-Denkmodus“ ermöglicht. Aufgrund von Verbesserungen in der Modellarchitektur, einer Erweiterung der Trainingsdaten und effizienteren Trainingsmethoden entspricht die Gesamtleistung der von Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, speziell entwickelt für anspruchsvolle Aufgaben in den Bereichen logisches Denken, Programmierung, Mathematik und Wissenschaft. Es verfügt über eingebaute \"Denkfähigkeiten\", die es ermöglichen, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell gibt es in zwei Varianten: mit und ohne Denkfähigkeit. Die Preisgestaltung für die Ausgabe variiert erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, vermeidet das Modell ausdrücklich die Erzeugung von Denk-Token.\n\nUm die Denkfähigkeit zu nutzen und Denk-Token zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Kosten für die Denk-Ausgabe führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"Maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B ist ein von OpenAI veröffentlichtes Open-Source-Sprachmodell, das die MXFP4-Quantisierungstechnologie verwendet und sich für den Einsatz auf High-End-Consumer-GPUs oder Apple Silicon Macs eignet. Dieses Modell zeigt hervorragende Leistungen bei der Dialoggenerierung, Codeerstellung und bei Inferenzaufgaben und unterstützt Funktionsaufrufe sowie die Nutzung von Werkzeugen."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4 quantisierte Transformer-Struktur, die auch bei begrenzten Ressourcen starke Leistung beibehält."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B ist ein von OpenAI veröffentlichtes großes Open-Source-Sprachmodell, das die MXFP4-Quantisierungstechnologie verwendet und als Flaggschiff-Modell gilt. Es erfordert den Betrieb auf Multi-GPU- oder Hochleistungs-Workstation-Umgebungen und bietet herausragende Leistungen bei komplexen Inferenzaufgaben, Codegenerierung und mehrsprachiger Verarbeitung. Es unterstützt fortgeschrittene Funktionsaufrufe und die Integration von Werkzeugen."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix bietet über eine einheitliche API-Schnittstelle Zugriff auf verschiedene KI-Modelle."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash ist ein genehmigungsfreier Cloud-Ressourcenmarkt, dessen Preisgestaltung im Vergleich zu herkömmlichen Cloud-Anbietern wettbewerbsfähig ist."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic ist ein Unternehmen, das sich auf Forschung und Entwicklung im Bereich der künstlichen Intelligenz spezialisiert hat und eine Reihe fortschrittlicher Sprachmodelle anbietet, darunter Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus und Claude 3 Haiku. Diese Modelle erreichen ein ideales Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten und sind für eine Vielzahl von Anwendungsszenarien geeignet, von unternehmensweiten Arbeitslasten bis hin zu schnellen Reaktionen. Claude 3.5 Sonnet, als neuestes Modell, hat in mehreren Bewertungen hervorragend abgeschnitten und bietet gleichzeitig ein hohes Preis-Leistungs-Verhältnis."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Deep Thinking Switch"
54
54
  },
55
- "title": "Model Extension Features"
55
+ "title": "Model Extension Features",
56
+ "urlContext": {
57
+ "desc": "When enabled, web links will be automatically parsed to retrieve the actual webpage context content",
58
+ "title": "Extract Webpage Link Content"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "The assistant will only remember the last {{count}} messages."
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Input cache write",
126
130
  "output": "Output",
127
131
  "outputAudio": "Audio Output",
132
+ "outputImage": "Image Output",
128
133
  "outputText": "Text Output",
129
134
  "outputTitle": "Output Details",
130
135
  "reasoning": "Deep Thinking",
@@ -87,13 +87,13 @@
87
87
  "FreePlanLimit": "You are currently a free user and cannot use this feature. Please upgrade to a paid plan to continue using it.",
88
88
  "GoogleAIBlockReason": {
89
89
  "BLOCKLIST": "Your content contains prohibited terms. Please review and modify your input, then try again.",
90
- "IMAGE_SAFETY": "The generated image content was blocked for safety reasons. Please try changing your image generation request.",
91
- "LANGUAGE": "The language you used is not currently supported. Please try again in English or another supported language.",
90
+ "IMAGE_SAFETY": "The generated image was blocked for safety reasons. Please try modifying your image request.",
91
+ "LANGUAGE": "The language you are using is not supported. Please try again in English or another supported language.",
92
92
  "OTHER": "The content was blocked for an unknown reason. Please try rephrasing your request.",
93
93
  "PROHIBITED_CONTENT": "Your request may contain prohibited content. Please adjust your request to comply with the usage guidelines.",
94
94
  "RECITATION": "Your content was blocked due to potential copyright concerns. Please try using original content or rephrase your request.",
95
- "SAFETY": "Your content was blocked by safety policies. Please modify your request to avoid potentially harmful or inappropriate content.",
96
- "SPII": "Your content may contain sensitive personal identifying information. To protect privacy, please remove such information and try again.",
95
+ "SAFETY": "Your content was blocked for safety policy reasons. Please adjust your request to avoid potentially harmful or inappropriate content.",
96
+ "SPII": "Your content may contain sensitive personally identifiable information (PII). To protect privacy, please remove any sensitive details and try again.",
97
97
  "default": "Content blocked: {{blockReason}}. Please adjust your request and try again."
98
98
  },
99
99
  "InsufficientQuota": "Sorry, the quota for this key has been reached. Please check your account balance or increase the key quota and try again.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 is a MoE model developed in-house by Deep Seek Company. Its performance surpasses that of other open-source models such as Qwen2.5-72B and Llama-3.1-405B in multiple assessments, and it stands on par with the world's top proprietary models like GPT-4o and Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: Next-generation reasoning model, enhancing complex reasoning and chain-of-thought capabilities, ideal for tasks requiring in-depth analysis."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Model provider: sophnet platform. DeepSeek V3 Fast is the high-TPS ultra-fast version of DeepSeek V3 0324, fully powered without quantization, featuring enhanced coding and mathematical capabilities for faster response!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Advanced image reasoning capabilities suitable for visual understanding agent applications."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: A versatile Transformer model suitable for conversational and generative tasks."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 is the most advanced multilingual open-source large language model in the Llama series, offering performance comparable to a 405B model at a very low cost. Based on the Transformer architecture, it enhances usability and safety through supervised fine-tuning (SFT) and reinforcement learning from human feedback (RLHF). Its instruction-tuned version is optimized for multilingual dialogue and outperforms many open-source and closed chat models on various industry benchmarks. Knowledge cutoff date is December 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: A large-scale model based on Mixture-of-Experts, offering an efficient expert activation strategy for superior inference performance."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "A brand-new self-developed inference model. Globally leading: 80K reasoning chains x 1M input, performance comparable to top overseas models."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B is a Mixture of Experts (MoE) model that introduces a \"Hybrid Reasoning Mode,\" allowing users to seamlessly switch between \"Thinking Mode\" and \"Non-Thinking Mode.\" It supports understanding and reasoning in 119 languages and dialects and possesses powerful tool invocation capabilities. In comprehensive benchmarks covering overall ability, coding and mathematics, multilingual proficiency, knowledge, and reasoning, it competes with leading large models on the market such as DeepSeek R1, OpenAI o1, o3-mini, Grok 3, and Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: A model optimized for advanced reasoning and dialogue instructions, featuring a mixture-of-experts architecture to maintain inference efficiency at large scale."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B is a dense model that introduces a \"Hybrid Reasoning Mode,\" enabling users to seamlessly switch between \"Thinking Mode\" and \"Non-Thinking Mode.\" Thanks to architectural improvements, increased training data, and more efficient training methods, its overall performance is comparable to that of Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It features built-in \"thinking\" capabilities, enabling it to provide responses with higher accuracy and more nuanced contextual understanding.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly depending on whether the thinking capability is activated. If you choose the standard variant (without the \":thinking\" suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the \":thinking\" variant, which incurs higher pricing for thinking outputs.\n\nAdditionally, Gemini 2.5 Flash can be configured via the \"max tokens for reasoning\" parameter, as detailed in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Gemini 2.5 Flash experimental model, supporting image generation."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Gemini 2.5 Flash experimental model, supporting image generation."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B is an open-source large language model released by OpenAI, utilizing MXFP4 quantization technology. It is suitable for running on high-end consumer GPUs or Apple Silicon Macs. This model excels in dialogue generation, code writing, and reasoning tasks, supporting function calls and tool usage."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4 quantized Transformer architecture, delivering strong performance even under resource constraints."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B is a large open-source language model released by OpenAI, employing MXFP4 quantization technology as a flagship model. It requires multi-GPU or high-performance workstation environments to operate and delivers outstanding performance in complex reasoning, code generation, and multilingual processing, supporting advanced function calls and tool integration."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix provides access to various AI models through a unified API interface."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash is a permissionless cloud resource marketplace with competitive pricing compared to traditional cloud providers."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic is a company focused on AI research and development, offering a range of advanced language models such as Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus, and Claude 3 Haiku. These models achieve an ideal balance between intelligence, speed, and cost, suitable for various applications from enterprise workloads to rapid-response scenarios. Claude 3.5 Sonnet, as their latest model, has excelled in multiple evaluations while maintaining a high cost-performance ratio."
16
19
  },