@lobehub/chat 1.117.1 → 1.118.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (97) hide show
  1. package/.env.example +8 -0
  2. package/AGENTS.md +133 -0
  3. package/CHANGELOG.md +58 -0
  4. package/changelog/v1.json +21 -0
  5. package/locales/ar/chat.json +6 -1
  6. package/locales/ar/error.json +8 -8
  7. package/locales/ar/models.json +21 -0
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/chat.json +6 -1
  10. package/locales/bg-BG/error.json +8 -8
  11. package/locales/bg-BG/models.json +21 -0
  12. package/locales/bg-BG/providers.json +3 -0
  13. package/locales/de-DE/chat.json +6 -1
  14. package/locales/de-DE/error.json +7 -7
  15. package/locales/de-DE/models.json +21 -0
  16. package/locales/de-DE/providers.json +3 -0
  17. package/locales/en-US/chat.json +6 -1
  18. package/locales/en-US/error.json +4 -4
  19. package/locales/en-US/models.json +21 -0
  20. package/locales/en-US/providers.json +3 -0
  21. package/locales/es-ES/chat.json +6 -1
  22. package/locales/es-ES/error.json +9 -9
  23. package/locales/es-ES/models.json +21 -0
  24. package/locales/es-ES/providers.json +3 -0
  25. package/locales/fa-IR/chat.json +6 -1
  26. package/locales/fa-IR/error.json +9 -9
  27. package/locales/fa-IR/models.json +21 -0
  28. package/locales/fa-IR/providers.json +3 -0
  29. package/locales/fr-FR/chat.json +6 -1
  30. package/locales/fr-FR/error.json +9 -9
  31. package/locales/fr-FR/models.json +21 -0
  32. package/locales/fr-FR/providers.json +3 -0
  33. package/locales/it-IT/chat.json +6 -1
  34. package/locales/it-IT/error.json +7 -7
  35. package/locales/it-IT/models.json +21 -0
  36. package/locales/it-IT/providers.json +3 -0
  37. package/locales/ja-JP/chat.json +6 -1
  38. package/locales/ja-JP/error.json +8 -8
  39. package/locales/ja-JP/models.json +21 -0
  40. package/locales/ja-JP/providers.json +3 -0
  41. package/locales/ko-KR/chat.json +6 -1
  42. package/locales/ko-KR/error.json +8 -8
  43. package/locales/ko-KR/models.json +21 -0
  44. package/locales/ko-KR/providers.json +3 -0
  45. package/locales/nl-NL/chat.json +6 -1
  46. package/locales/nl-NL/error.json +8 -8
  47. package/locales/nl-NL/models.json +21 -0
  48. package/locales/nl-NL/providers.json +3 -0
  49. package/locales/pl-PL/chat.json +6 -1
  50. package/locales/pl-PL/error.json +9 -9
  51. package/locales/pl-PL/models.json +21 -0
  52. package/locales/pl-PL/providers.json +3 -0
  53. package/locales/pt-BR/chat.json +6 -1
  54. package/locales/pt-BR/error.json +8 -8
  55. package/locales/pt-BR/models.json +21 -0
  56. package/locales/pt-BR/providers.json +3 -0
  57. package/locales/ru-RU/chat.json +6 -1
  58. package/locales/ru-RU/error.json +7 -7
  59. package/locales/ru-RU/models.json +21 -0
  60. package/locales/ru-RU/providers.json +3 -0
  61. package/locales/tr-TR/chat.json +6 -1
  62. package/locales/tr-TR/error.json +9 -9
  63. package/locales/tr-TR/models.json +21 -0
  64. package/locales/tr-TR/providers.json +3 -0
  65. package/locales/vi-VN/chat.json +6 -1
  66. package/locales/vi-VN/models.json +21 -0
  67. package/locales/vi-VN/providers.json +3 -0
  68. package/locales/zh-CN/chat.json +6 -1
  69. package/locales/zh-CN/models.json +21 -0
  70. package/locales/zh-CN/providers.json +3 -0
  71. package/locales/zh-TW/chat.json +6 -1
  72. package/locales/zh-TW/error.json +4 -4
  73. package/locales/zh-TW/models.json +21 -0
  74. package/locales/zh-TW/providers.json +3 -0
  75. package/next.config.ts +22 -6
  76. package/package.json +1 -1
  77. package/packages/model-runtime/src/akashchat/index.ts +43 -0
  78. package/packages/model-runtime/src/google/index.ts +17 -3
  79. package/packages/model-runtime/src/index.ts +1 -0
  80. package/packages/model-runtime/src/openai/__snapshots__/index.test.ts.snap +1 -1
  81. package/packages/model-runtime/src/runtimeMap.ts +2 -0
  82. package/packages/model-runtime/src/types/chat.ts +4 -0
  83. package/packages/model-runtime/src/types/type.ts +1 -0
  84. package/packages/model-runtime/src/utils/modelParse.ts +14 -1
  85. package/packages/types/src/agent/chatConfig.ts +1 -0
  86. package/packages/types/src/aiModel.ts +2 -1
  87. package/packages/types/src/user/settings/keyVaults.ts +1 -0
  88. package/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx +2 -0
  89. package/src/config/aiModels/akashchat.ts +84 -0
  90. package/src/config/aiModels/google.ts +8 -6
  91. package/src/config/aiModels/index.ts +3 -0
  92. package/src/config/llm.ts +6 -0
  93. package/src/config/modelProviders/akashchat.ts +17 -0
  94. package/src/config/modelProviders/index.ts +3 -0
  95. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
  96. package/src/locales/default/chat.ts +4 -0
  97. package/src/services/chat.ts +4 -0
package/.env.example CHANGED
@@ -4,6 +4,14 @@
4
4
  # Specify your API Key selection method, currently supporting `random` and `turn`.
5
5
  # API_KEY_SELECT_MODE=random
6
6
 
7
+ ########################################
8
+ ########### Security Settings ###########
9
+ ########################################
10
+
11
+ # Control Content Security Policy headers
12
+ # Set to '1' to enable X-Frame-Options and Content-Security-Policy headers
13
+ # Default is '0' (enabled)
14
+ # ENABLED_CSP=1
7
15
 
8
16
  ########################################
9
17
  ########## AI Provider Service #########
package/AGENTS.md ADDED
@@ -0,0 +1,133 @@
1
+ # LobeChat Development Guidelines
2
+
3
+ This document serves as a comprehensive guide for all team members when developing LobeChat.
4
+
5
+ ## Tech Stack
6
+
7
+ Built with modern technologies:
8
+
9
+ - **Frontend**: Next.js 15, React 19, TypeScript
10
+ - **UI Components**: Ant Design, @lobehub/ui, antd-style
11
+ - **State Management**: Zustand, SWR
12
+ - **Database**: PostgreSQL, PGLite, Drizzle ORM
13
+ - **Testing**: Vitest, Testing Library
14
+ - **Package Manager**: pnpm (monorepo structure)
15
+ - **Build Tools**: Next.js (Turbopack in dev, Webpack in prod), Vitest
16
+
17
+ ## Directory Structure
18
+
19
+ The project follows a well-organized monorepo structure:
20
+
21
+ - `apps/` - Main applications
22
+ - `packages/` - Shared packages and libraries
23
+ - `src/` - Main source code
24
+ - `docs/` - Documentation
25
+ - `.cursor/rules/` - Development rules and guidelines
26
+
27
+ ## Development Workflow
28
+
29
+ ### Git Workflow
30
+
31
+ - Use rebase for git pull: `git pull --rebase`
32
+ - Git commit messages should prefix with gitmoji
33
+ - Git branch name format: `username/feat/feature-name`
34
+ - Use `.github/PULL_REQUEST_TEMPLATE.md` for PR descriptions
35
+
36
+ ### Package Management
37
+
38
+ - Use `pnpm` as the primary package manager
39
+ - Use `bun` to run npm scripts
40
+ - Use `bunx` to run executable npm packages
41
+ - Navigate to specific packages using `cd packages/<package-name>`
42
+
43
+ ### Code Style Guidelines
44
+
45
+ #### TypeScript
46
+
47
+ - Follow strict TypeScript practices for type safety and code quality
48
+ - Use proper type annotations
49
+ - Prefer interfaces over types for object shapes
50
+ - Use generics for reusable components
51
+
52
+ #### React Components
53
+
54
+ - Use functional components with hooks
55
+ - Follow the component structure guidelines
56
+ - Use antd-style & @lobehub/ui for styling
57
+ - Implement proper error boundaries
58
+
59
+ #### Database Schema
60
+
61
+ - Follow Drizzle ORM naming conventions
62
+ - Use plural snake_case for table names
63
+ - Implement proper foreign key relationships
64
+ - Follow the schema style guide
65
+
66
+ ### Testing Strategy
67
+
68
+ **Required Rule**: `testing-guide/testing-guide.mdc`
69
+
70
+ **Commands**:
71
+
72
+ - Web: `bunx vitest run --silent='passed-only' '[file-path-pattern]'`
73
+ - Packages: `cd packages/[package-name] && bunx vitest run --silent='passed-only' '[file-path-pattern]'`
74
+
75
+ **Important Notes**:
76
+
77
+ - Wrap file paths in single quotes to avoid shell expansion
78
+ - Never run `bun run test` - this runs all tests and takes ~10 minutes
79
+ - If a test fails twice, stop and ask for help
80
+ - Always add tests for new code
81
+
82
+ ### Type Checking
83
+
84
+ - Use `bun run type-check` to check for type errors
85
+ - Ensure all TypeScript errors are resolved before committing
86
+
87
+ ### Internationalization
88
+
89
+ - Add new keys to `src/locales/default/namespace.ts`
90
+ - Translate at least `zh-CN` files for development preview
91
+ - Use hierarchical nested objects, not flat keys
92
+ - Don't run `pnpm i18n` manually (handled by CI)
93
+
94
+ ## Available Development Rules
95
+
96
+ The project provides comprehensive rules in `.cursor/rules/` directory:
97
+
98
+ ### Core Development
99
+
100
+ - `backend-architecture.mdc` - Three-layer architecture and data flow
101
+ - `react-component.mdc` - Component patterns and UI library usage
102
+ - `drizzle-schema-style-guide.mdc` - Database schema conventions
103
+ - `define-database-model.mdc` - Model templates and CRUD patterns
104
+ - `i18n.mdc` - Internationalization workflow
105
+
106
+ ### State Management & UI
107
+
108
+ - `zustand-slice-organization.mdc` - Store organization patterns
109
+ - `zustand-action-patterns.mdc` - Action implementation patterns
110
+ - `packages/react-layout-kit.mdc` - Flex layout component usage
111
+
112
+ ### Testing & Quality
113
+
114
+ - `testing-guide/testing-guide.mdc` - Comprehensive testing strategy
115
+ - `code-review.mdc` - Code review process and standards
116
+
117
+ ### Desktop (Electron)
118
+
119
+ - `desktop-feature-implementation.mdc` - Main/renderer process patterns
120
+ - `desktop-local-tools-implement.mdc` - Tool integration workflow
121
+ - `desktop-menu-configuration.mdc` - Menu system configuration
122
+ - `desktop-window-management.mdc` - Window management patterns
123
+ - `desktop-controller-tests.mdc` - Controller testing guide
124
+
125
+ ## Best Practices
126
+
127
+ - **Conservative for existing code, modern approaches for new features**
128
+ - **Code Language**: Use Chinese for files with existing Chinese comments, American English for new files
129
+ - Always add tests for new functionality
130
+ - Follow the established patterns in the codebase
131
+ - Use proper error handling and logging
132
+ - Implement proper accessibility features
133
+ - Consider internationalization from the start
package/CHANGELOG.md CHANGED
@@ -2,6 +2,64 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.118.1](https://github.com/lobehub/lobe-chat/compare/v1.118.0...v1.118.1)
6
+
7
+ <sup>Released on **2025-08-29**</sup>
8
+
9
+ #### 🐛 Bug Fixes
10
+
11
+ - **misc**: Add Content-Security-Policy env.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Support Gemini URL context tool.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### What's fixed
23
+
24
+ - **misc**: Add Content-Security-Policy env, closes [#8752](https://github.com/lobehub/lobe-chat/issues/8752) ([9250540](https://github.com/lobehub/lobe-chat/commit/9250540))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Support Gemini URL context tool, closes [#8731](https://github.com/lobehub/lobe-chat/issues/8731) ([5d4ed11](https://github.com/lobehub/lobe-chat/commit/5d4ed11))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
38
+ ## [Version 1.118.0](https://github.com/lobehub/lobe-chat/compare/v1.117.1...v1.118.0)
39
+
40
+ <sup>Released on **2025-08-29**</sup>
41
+
42
+ #### ✨ Features
43
+
44
+ - **misc**: Add new provider AkashChat.
45
+
46
+ <br/>
47
+
48
+ <details>
49
+ <summary><kbd>Improvements and Fixes</kbd></summary>
50
+
51
+ #### What's improved
52
+
53
+ - **misc**: Add new provider AkashChat, closes [#8923](https://github.com/lobehub/lobe-chat/issues/8923) ([2f3bf0f](https://github.com/lobehub/lobe-chat/commit/2f3bf0f))
54
+
55
+ </details>
56
+
57
+ <div align="right">
58
+
59
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
60
+
61
+ </div>
62
+
5
63
  ### [Version 1.117.1](https://github.com/lobehub/lobe-chat/compare/v1.117.0...v1.117.1)
6
64
 
7
65
  <sup>Released on **2025-08-29**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,25 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "fixes": [
5
+ "Add Content-Security-Policy env."
6
+ ],
7
+ "improvements": [
8
+ "Support Gemini URL context tool."
9
+ ]
10
+ },
11
+ "date": "2025-08-29",
12
+ "version": "1.118.1"
13
+ },
14
+ {
15
+ "children": {
16
+ "features": [
17
+ "Add new provider AkashChat."
18
+ ]
19
+ },
20
+ "date": "2025-08-29",
21
+ "version": "1.118.0"
22
+ },
2
23
  {
3
24
  "children": {
4
25
  "improvements": [
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "مفتاح التفكير العميق"
54
54
  },
55
- "title": "وظائف توسيع النموذج"
55
+ "title": "وظائف توسيع النموذج",
56
+ "urlContext": {
57
+ "desc": "عند التفعيل، سيتم تحليل روابط الويب تلقائيًا للحصول على محتوى السياق الفعلي للصفحة",
58
+ "title": "استخراج محتوى رابط الويب"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "سيتذكر المساعد آخر {{count}} رسالة فقط"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "تخزين إدخال الكتابة",
126
130
  "output": "مخرجات",
127
131
  "outputAudio": "مخرجات صوتية",
132
+ "outputImage": "إخراج الصورة",
128
133
  "outputText": "مخرجات نصية",
129
134
  "outputTitle": "تفاصيل المخرجات",
130
135
  "reasoning": "تفكير عميق",
@@ -86,15 +86,15 @@
86
86
  "ExceededContextWindow": "المحتوى المطلوب الحالي يتجاوز الطول الذي يمكن للنموذج معالجته، يرجى تقليل كمية المحتوى ثم إعادة المحاولة",
87
87
  "FreePlanLimit": "أنت حاليًا مستخدم مجاني، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة مدفوعة للمتابعة",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "يحتوي محتواك على كلمات محظورة. الرجاء التحقق من مدخلاتك وتعديلها ثم المحاولة مرة أخرى.",
90
- "IMAGE_SAFETY": "تم حظر المحتوى الصوري لأسباب تتعلق بالسلامة. يرجى محاولة تعديل طلب إنشاء الصورة.",
91
- "LANGUAGE": "اللغة التي استخدمتها غير مدعومة حالياً. يرجى المحاولة مرة أخرى باستخدام الإنجليزية أو إحدى اللغات المدعومة.",
89
+ "BLOCKLIST": "يحتوي المحتوى الذي أرسلته على كلمات محظورة. يرجى مراجعته وتعديل مدخلاتك ثم المحاولة مرة أخرى.",
90
+ "IMAGE_SAFETY": "تم حظر المحتوى الصوري الناتج لأسباب تتعلق بالأمان. يرجى محاولة تعديل طلب توليد الصورة.",
91
+ "LANGUAGE": "اللغة التي تستخدمها غير مدعومة مؤقتًا. يرجى المحاولة باللغة الإنجليزية أو بلغة أخرى مدعومة.",
92
92
  "OTHER": "تم حظر المحتوى لسبب غير معروف. يرجى محاولة إعادة صياغة طلبك.",
93
- "PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك والتأكد من أن المحتوى يلتزم بسياسات الاستخدام.",
94
- "RECITATION": "تم حظر المحتوى لأنه قد ينطوي على مسائل حقوق نشر. يرجى محاولة استخدام محتوى أصلي أو إعادة صياغة طلبك.",
95
- "SAFETY": "تم حظر المحتوى بسبب سياسات الأمان. يرجى محاولة تعديل طلبك وتجنب تضمين محتوى قد يكون ضاراً أو غير مناسب.",
96
- "SPII": "قد يحتوي محتواك على معلومات شخصية حساسة. لحماية الخصوصية، يرجى إزالة المعلومات الحساسة ثم المحاولة مرة أخرى.",
97
- "default": "تم حظر المحتوى: {{blockReason}}。请调整您的请求内容后重试。"
93
+ "PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك لضمان توافقه مع سياسات الاستخدام.",
94
+ "RECITATION": "تم حظر محتواك لكونه قد ينتهك حقوق النشر. يرجى محاولة استخدام محتوى أصلي أو إعادة صياغة طلبك.",
95
+ "SAFETY": "تم حظر المحتوى بسبب سياسات السلامة. يرجى تعديل طلبك لتجنب أي محتوى ضار أو غير مناسب.",
96
+ "SPII": "قد يحتوي المحتوى على معلومات شخصية حساسة. لحماية الخصوصية، يرجى إزالة المعلومات الحساسة ثم المحاولة مرة أخرى.",
97
+ "default": "تم حظر المحتوى: {{blockReason}}. يرجى تعديل طلبك ثم المحاولة مرة أخرى."
98
98
  },
99
99
  "InsufficientQuota": "عذرًا، لقد reached الحد الأقصى للحصة (quota) لهذه المفتاح، يرجى التحقق من رصيد الحساب الخاص بك أو زيادة حصة المفتاح ثم المحاولة مرة أخرى",
100
100
  "InvalidAccessCode": "كلمة المرور غير صحيحة أو فارغة، يرجى إدخال كلمة مرور الوصول الصحيحة أو إضافة مفتاح API مخصص",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 هو نموذج MoE تم تطويره ذاتيًا بواسطة شركة DeepSeek. حقق DeepSeek-V3 نتائج تقييم تفوقت على نماذج مفتوحة المصدر الأخرى مثل Qwen2.5-72B و Llama-3.1-405B، وفي الأداء ينافس النماذج المغلقة الرائدة عالميًا مثل GPT-4o و Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: نموذج الاستدلال من الجيل التالي، يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقاً."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "مزود النموذج: منصة sophnet. DeepSeek V3 Fast هو النسخة السريعة عالية TPS من إصدار DeepSeek V3 0324، غير مكوّن بالكامل، يتمتع بقدرات برمجية ورياضية أقوى واستجابة أسرع!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "قدرات استدلال الصور المتقدمة المناسبة لتطبيقات الوكلاء في الفهم البصري."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: نموذج Transformer متعدد الاستخدامات، مناسب للحوار ومهام التوليد."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "نموذج نصي تم تعديله تحت الإشراف من Llama 3.1، تم تحسينه لحالات الحوار متعددة اللغات، حيث يتفوق في العديد من نماذج الدردشة مفتوحة ومغلقة المصدر المتاحة في المعايير الصناعية الشائعة."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 هو النموذج اللغوي مفتوح المصدر متعدد اللغات الأكثر تقدمًا في سلسلة Llama، حيث يقدم تجربة تنافس أداء نموذج 405B بتكلفة منخفضة للغاية. يعتمد على هيكل Transformer، وتم تحسين فائدته وأمانه من خلال التعديل الدقيق تحت الإشراف (SFT) والتعلم المعزز من خلال ردود الفعل البشرية (RLHF). تم تحسين إصدار التعديل الخاص به ليكون مثاليًا للحوار متعدد اللغات، حيث يتفوق في العديد من المعايير الصناعية على العديد من نماذج الدردشة مفتوحة ومغلقة المصدر. تاريخ انتهاء المعرفة هو ديسمبر 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: نموذج واسع النطاق قائم على مزيج من الخبراء، يوفر استراتيجية تفعيل خبراء فعالة لتحقيق أداء متميز في الاستدلال."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "نموذج استدلال جديد مطور ذاتيًا. رائد عالميًا: 80 ألف سلسلة تفكير × 1 مليون إدخال، أداء يضاهي أفضل النماذج العالمية."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B هو نموذج MoE (نموذج خبير مختلط) يقدم \"وضع الاستدلال المختلط\"، ويدعم المستخدمين في التبديل السلس بين \"وضع التفكير\" و\"وضع عدم التفكير\". يدعم فهم واستدلال 119 لغة ولهجة، ويتميز بقدرات قوية على استدعاء الأدوات. في اختبارات الأداء الشاملة، والبرمجة والرياضيات، واللغات المتعددة، والمعرفة والاستدلال، ينافس هذا النموذج النماذج الرائدة في السوق مثل DeepSeek R1، OpenAI o1، o3-mini، Grok 3، وGoogle Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: نموذج موجه للاستدلال المتقدم وتحسين أوامر الحوار، يعتمد على بنية خبراء مختلطة للحفاظ على كفاءة الاستدلال مع عدد كبير من المعاملات."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B هو نموذج كثيف (Dense Model) يقدم \"وضع الاستدلال المختلط\"، ويدعم التبديل السلس بين \"وضع التفكير\" و\"وضع عدم التفكير\". بفضل تحسينات في بنية النموذج، وزيادة بيانات التدريب، وأساليب تدريب أكثر فعالية، يقدم أداءً يعادل تقريبًا Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash هو النموذج الرئيسي الأكثر تقدمًا من Google، مصمم خصيصًا للمهام المتقدمة في الاستدلال، الترميز، الرياضيات والعلوم. يحتوي على قدرة مدمجة على \"التفكير\"، مما يمكنه من تقديم استجابات بدقة أعلى ومعالجة سياقية أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نسختين: نسخة التفكير ونسخة غير التفكير. تختلف تكلفة الإخراج بشكل ملحوظ بناءً على تفعيل قدرة التفكير. إذا اخترت النسخة القياسية (بدون لاحقة \":thinking\"), سيتجنب النموذج بوضوح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستلام رموز التفكير، يجب عليك اختيار النسخة \":thinking\"، والتي ستؤدي إلى تكلفة إخراج أعلى للتفكير.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ومناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Mac بمعالج Apple Silicon. يتميز هذا النموذج بأداء ممتاز في توليد المحادثات، وكتابة الأكواد، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4: هيكل Transformer محسّن بالكمية، يحافظ على أداء قوي حتى في ظل محدودية الموارد."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ويعتبر نموذجًا رائدًا. يتطلب تشغيله بيئة متعددة وحدات معالجة الرسومات أو محطة عمل عالية الأداء، ويتميز بأداء متفوق في الاستدلال المعقد، وتوليد الأكواد، ومعالجة اللغات المتعددة، ويدعم استدعاء الدوال المتقدمة وتكامل الأدوات."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "يوفر AiHubMix الوصول إلى نماذج الذكاء الاصطناعي المتعددة من خلال واجهة برمجة تطبيقات موحدة."
13
13
  },
14
+ "akashchat": {
15
+ "description": "آكاش هو سوق موارد سحابية بدون ترخيص، يتميز بأسعار تنافسية مقارنة بمزودي السحابة التقليديين."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic هي شركة تركز على أبحاث وتطوير الذكاء الاصطناعي، وتقدم مجموعة من نماذج اللغة المتقدمة، مثل Claude 3.5 Sonnet وClaude 3 Sonnet وClaude 3 Opus وClaude 3 Haiku. تحقق هذه النماذج توازنًا مثاليًا بين الذكاء والسرعة والتكلفة، وتناسب مجموعة متنوعة من سيناريوهات التطبيقات، من أحمال العمل على مستوى المؤسسات إلى الاستجابات السريعة. يعتبر Claude 3.5 Sonnet أحدث نماذجها، وقد أظهر أداءً ممتازًا في العديد من التقييمات مع الحفاظ على نسبة تكلفة فعالة."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Превключвател за дълбоко мислене"
54
54
  },
55
- "title": "Разширени функции на модела"
55
+ "title": "Разширени функции на модела",
56
+ "urlContext": {
57
+ "desc": "Когато е включено, автоматично ще се анализират уеб връзки, за да се получи реалното съдържание на уеб страницата",
58
+ "title": "Извличане на съдържание от уеб връзки"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Асистентът ще запомни само последните {{count}} съобщения"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Входящи кеширани данни",
126
130
  "output": "Изход",
127
131
  "outputAudio": "Аудио изход",
132
+ "outputImage": "Изходно изображение",
128
133
  "outputText": "Текстов изход",
129
134
  "outputTitle": "Детайли за изхода",
130
135
  "reasoning": "Дълбочинно разсъждение",
@@ -86,14 +86,14 @@
86
86
  "ExceededContextWindow": "Текущото съдържание на заявката надвишава дължината, която моделът може да обработи. Моля, намалете обема на съдържанието и опитайте отново.",
87
87
  "FreePlanLimit": "В момента сте потребител на безплатен план и не можете да използвате тази функционалност. Моля, надстройте до платен план, за да продължите да я използвате.",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля, прегледайте и коригирайте входа си и опитайте отново。",
90
- "IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за сигурност. Моля, опитайте да модифицирате заявката за генериране на изображение。",
91
- "LANGUAGE": "Езикът, който използвате, в момента не се поддържа. Моля, опитайте с английски или друг поддържан език。",
92
- "OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката си。",
93
- "PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да съответства на правилата за използване。",
94
- "RECITATION": "Вашето съдържание е блокирано поради възможни нарушения на авторското право. Моля, опитайте с оригинално съдържание или преформулирайте заявката си。",
95
- "SAFETY": "Вашето съдържание е блокирано поради политики за безопасност. Моля, коригирайте заявката си, като избягвате потенциално вредно или неподходящо съдържание。",
96
- "SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За защита на поверителността, моля премахнете съответната чувствителна информация и опитайте отново。",
89
+ "BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля, проверете и коригирайте входа си и опитайте отново.",
90
+ "IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за безопасност. Моля, опитайте да промените заявката за генериране на изображение.",
91
+ "LANGUAGE": "Езикът, който използвате, все още не се поддържа. Моля, опитайте да зададете въпроса на английски или на друг поддържан език.",
92
+ "OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката си.",
93
+ "PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да отговаря на правилата за ползване.",
94
+ "RECITATION": "Съдържанието ви е блокирано поради възможни проблеми с авторските права. Моля, опитайте да използвате оригинално съдържание или да преформулирате заявката си.",
95
+ "SAFETY": "Вашето съдържание е блокирано поради правила за безопасност. Моля, опитайте да промените заявката, като избягвате потенциално вредно или неподходящо съдържание.",
96
+ "SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За да защитите поверителността, моля, премахнете съответната чувствителна информация и опитайте отново.",
97
97
  "default": "Съдържанието е блокирано: {{blockReason}}。请调整您的请求内容后重试。"
98
98
  },
99
99
  "InsufficientQuota": "Съжаляваме, квотата за този ключ е достигнала лимита. Моля, проверете баланса на акаунта си или увеличете квотата на ключа и опитайте отново.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 е MoE модел, разработен от компанията DeepSeek. DeepSeek-V3 постига резултати в множество оценки, които надминават други отворени модели като Qwen2.5-72B и Llama-3.1-405B, като по отношение на производителност е наравно с водещите затворени модели в света като GPT-4o и Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: Следващо поколение модел за разсъждение, подобряващ сложното разсъждение и веригата на мислене, подходящ за задачи, изискващи задълбочен анализ."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Доставчик на модела: платформа sophnet. DeepSeek V3 Fast е високоскоростната версия с висока TPS на DeepSeek V3 0324, с пълна точност без квантизация, с по-силни кодови и математически възможности и по-бърз отговор!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Напреднали способности за визуално разсъждение, подходящи за приложения на агенти за визуално разбиране."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: Универсален трансформър модел, подходящ за диалог и задачи за генериране."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия с оптимизация за инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от наличните отворени и затворени чат модели на множество индустриални бенчмаркове. Краен срок за знанията е декември 2023 г."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: Голям модел, базиран на Mixture-of-Experts, предлагащ ефективна стратегия за активиране на експерти за отлични резултати при разсъждение."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Изцяло ново самостоятелно разработено модел за разсъждение. Световен лидер: 80K вериги на мислене x 1M вход, с резултати, сравними с водещите модели в чужбина."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B е MoE (хибриден експертен модел), който въвежда „хибриден режим на разсъждение“, позволяващ на потребителите безпроблемно превключване между „режим мислене“ и „режим без мислене“. Поддържа разбиране и разсъждение на 119 езика и диалекта и разполага с мощни възможности за извикване на инструменти. В множество базови тестове за общи способности, кодиране, математика, многоезичност, знания и разсъждение, той може да се конкурира с водещите големи модели на пазара като DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: Модел, оптимизиран за напреднало разсъждение и диалогови инструкции, с хибридна експертна архитектура, поддържаща ефективност при голям брой параметри."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B е плътен модел (Dense Model), който въвежда „хибриден режим на разсъждение“, позволяващ на потребителите безпроблемно превключване между „режим мислене“ и „режим без мислене“. Благодарение на подобрения в архитектурата на модела, увеличени тренировъчни данни и по-ефективни методи за обучение, общата производителност е сравнима с тази на Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash е най-усъвършенстваният основен модел на Google, специално проектиран за напреднали задачи по разсъждение, кодиране, математика и наука. Той включва вградена способност за „мислене“, която му позволява да предоставя отговори с по-висока точност и по-детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали способността за мислене е активирана. Ако изберете стандартния вариант (без суфикса „:thinking“), моделът ясно избягва генерирането на мисловни токени.\n\nЗа да използвате способността за мислене и да получавате мисловни токени, трябва да изберете варианта „:thinking“, което ще доведе до по-висока цена за изход с мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра „максимален брой токени за разсъждение“, както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B е отворен голям езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, подходящ за работа на висок клас потребителски GPU или Apple Silicon Mac. Този модел се отличава с отлични резултати в генерирането на диалози, писането на код и задачи за разсъждение, като поддържа извикване на функции и използване на инструменти."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4 квантизиран трансформър модел, който запазва силна производителност при ограничени ресурси."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B е голям отворен езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, предназначен за флагмански клас модели. Изисква многократни GPU или високопроизводителна работна станция за работа, с изключителни възможности в сложни разсъждения, генериране на код и многоезична обработка, поддържайки усъвършенствано извикване на функции и интеграция на инструменти."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix предоставя достъп до множество AI модели чрез единен API интерфейс."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash е пазар за облачни ресурси без нужда от разрешение, който предлага конкурентни цени в сравнение с традиционните облачни доставчици."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic е компания, специализирана в изследвания и разработка на изкуствен интелект, предлагаща набор от напреднали езикови модели, като Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus и Claude 3 Haiku. Тези модели постигат идеален баланс между интелигентност, скорост и разходи, подходящи за различни приложения, от корпоративни натоварвания до бързи отговори. Claude 3.5 Sonnet, като най-новия им модел, показва отлични резултати в множество оценки, като същевременно поддържа висока цена-качество."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Tiefdenk-Schalter"
54
54
  },
55
- "title": "Modell Erweiterungsfunktionen"
55
+ "title": "Modell Erweiterungsfunktionen",
56
+ "urlContext": {
57
+ "desc": "Wenn aktiviert, werden Webseiten-Links automatisch analysiert, um den tatsächlichen Webseiteninhalt zu erfassen",
58
+ "title": "Webseiten-Link-Inhalt extrahieren"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Der Assistent wird nur die letzten {{count}} Nachrichten speichern"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Eingabe Cache schreiben",
126
130
  "output": "Ausgabe",
127
131
  "outputAudio": "Audioausgabe",
132
+ "outputImage": "Bildausgabe",
128
133
  "outputText": "Text-Ausgabe",
129
134
  "outputTitle": "Ausgabedetails",
130
135
  "reasoning": "Tiefes Denken",
@@ -86,15 +86,15 @@
86
86
  "ExceededContextWindow": "Der aktuelle Anfrageinhalt überschreitet die von dem Modell verarbeitbare Länge. Bitte reduzieren Sie die Menge des Inhalts und versuchen Sie es erneut.",
87
87
  "FreePlanLimit": "Sie sind derzeit ein kostenloser Benutzer und können diese Funktion nicht nutzen. Bitte aktualisieren Sie auf ein kostenpflichtiges Abonnement, um fortzufahren.",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "Ihr Inhalt enthält verbotene Begriffe. Bitte überprüfen und ändern Sie Ihre Eingabe und versuchen Sie es erneut.",
90
- "IMAGE_SAFETY": "Die erzeugten Bildinhalte wurden aus Sicherheitsgründen blockiert. Bitte versuchen Sie, Ihre Bildgenerierungsanfrage zu ändern.",
89
+ "BLOCKLIST": "Ihr Inhalt enthält verbotene Wörter. Bitte prüfen und ändern Sie Ihre Eingabe und versuchen Sie es erneut.",
90
+ "IMAGE_SAFETY": "Die Bildgenerierung wurde aus Sicherheitsgründen blockiert. Bitte passen Sie Ihre Anfrage zur Bildgenerierung an und versuchen Sie es erneut.",
91
91
  "LANGUAGE": "Die von Ihnen verwendete Sprache wird derzeit nicht unterstützt. Bitte versuchen Sie es erneut auf Englisch oder in einer anderen unterstützten Sprache.",
92
- "OTHER": "Der Inhalt wurde aus einem unbekannten Grund blockiert. Bitte formulieren Sie Ihre Anfrage neu und versuchen Sie es erneut.",
92
+ "OTHER": "Der Inhalt wurde aus unbekannten Gründen blockiert. Bitte formulieren Sie Ihre Anfrage neu.",
93
93
  "PROHIBITED_CONTENT": "Ihre Anfrage könnte verbotene Inhalte enthalten. Bitte passen Sie Ihre Anfrage an und stellen Sie sicher, dass sie den Nutzungsrichtlinien entspricht.",
94
- "RECITATION": "Ihr Inhalt wurde möglicherweise wegen möglicher Urheberrechtsverletzungen blockiert. Bitte verwenden Sie eigene Inhalte oder formulieren Sie Ihre Anfrage um.",
95
- "SAFETY": "Ihr Inhalt wurde aufgrund der Sicherheitsrichtlinien blockiert. Bitte passen Sie Ihre Anfrage an und vermeiden Sie potenziell schädliche oder unangemessene Inhalte.",
96
- "SPII": "Ihr Inhalt könnte sensible personenbezogene Daten enthalten. Zum Schutz der Privatsphäre entfernen Sie bitte die betreffenden Informationen und versuchen Sie es erneut.",
97
- "default": "Inhalt blockiert: {{blockReason}}。请调整您的请求内容后重试。"
94
+ "RECITATION": "Ihr Inhalt wurde wegen möglicher Urheberrechtsverletzungen blockiert. Bitte verwenden Sie Originalinhalte oder formulieren Sie Ihre Anfrage um.",
95
+ "SAFETY": "Ihr Inhalt wurde aufgrund von Sicherheitsrichtlinien blockiert. Bitte passen Sie Ihre Anfrage an und vermeiden Sie potenziell schädliche oder unangemessene Inhalte.",
96
+ "SPII": "Ihr Inhalt könnte sensible personenbezogene Daten enthalten. Zum Schutz der Privatsphäre entfernen Sie bitte diese Informationen und versuchen Sie es erneut.",
97
+ "default": "Inhalt blockiert: {{blockReason}}. Bitte passen Sie Ihre Anfrage an und versuchen Sie es erneut."
98
98
  },
99
99
  "InsufficientQuota": "Es tut uns leid, das Kontingent (Quota) für diesen Schlüssel ist erreicht. Bitte überprüfen Sie Ihr Kontoguthaben oder erhöhen Sie das Kontingent des Schlüssels und versuchen Sie es erneut.",
100
100
  "InvalidAccessCode": "Das Passwort ist ungültig oder leer. Bitte geben Sie das richtige Zugangspasswort ein oder fügen Sie einen benutzerdefinierten API-Schlüssel hinzu.",