@lobehub/lobehub 2.0.0-next.309 → 2.0.0-next.310

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (54) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/e2e/src/steps/page/page-crud.steps.ts +119 -17
  4. package/locales/ar/auth.json +5 -0
  5. package/locales/ar/models.json +51 -0
  6. package/locales/ar/plugin.json +3 -0
  7. package/locales/bg-BG/auth.json +5 -0
  8. package/locales/bg-BG/models.json +41 -0
  9. package/locales/bg-BG/plugin.json +3 -0
  10. package/locales/de-DE/auth.json +5 -0
  11. package/locales/de-DE/models.json +39 -0
  12. package/locales/de-DE/plugin.json +3 -0
  13. package/locales/en-US/models.json +1 -0
  14. package/locales/es-ES/auth.json +5 -0
  15. package/locales/es-ES/models.json +48 -0
  16. package/locales/es-ES/plugin.json +3 -0
  17. package/locales/fa-IR/auth.json +5 -0
  18. package/locales/fa-IR/models.json +39 -0
  19. package/locales/fa-IR/plugin.json +3 -0
  20. package/locales/fr-FR/auth.json +5 -0
  21. package/locales/fr-FR/models.json +40 -0
  22. package/locales/fr-FR/plugin.json +3 -0
  23. package/locales/it-IT/auth.json +5 -0
  24. package/locales/it-IT/models.json +42 -0
  25. package/locales/it-IT/plugin.json +3 -0
  26. package/locales/ja-JP/auth.json +5 -0
  27. package/locales/ja-JP/models.json +39 -0
  28. package/locales/ja-JP/plugin.json +3 -0
  29. package/locales/ko-KR/auth.json +5 -0
  30. package/locales/ko-KR/models.json +41 -0
  31. package/locales/ko-KR/plugin.json +3 -0
  32. package/locales/nl-NL/auth.json +5 -0
  33. package/locales/nl-NL/models.json +51 -0
  34. package/locales/nl-NL/plugin.json +3 -0
  35. package/locales/pl-PL/auth.json +5 -0
  36. package/locales/pl-PL/models.json +41 -0
  37. package/locales/pl-PL/plugin.json +3 -0
  38. package/locales/pt-BR/auth.json +5 -0
  39. package/locales/pt-BR/models.json +44 -0
  40. package/locales/pt-BR/plugin.json +3 -0
  41. package/locales/ru-RU/auth.json +5 -0
  42. package/locales/ru-RU/models.json +41 -0
  43. package/locales/ru-RU/plugin.json +3 -0
  44. package/locales/tr-TR/auth.json +5 -0
  45. package/locales/tr-TR/models.json +41 -0
  46. package/locales/tr-TR/plugin.json +3 -0
  47. package/locales/vi-VN/auth.json +5 -0
  48. package/locales/vi-VN/models.json +20 -0
  49. package/locales/vi-VN/plugin.json +3 -0
  50. package/locales/zh-CN/models.json +42 -0
  51. package/locales/zh-TW/auth.json +5 -0
  52. package/locales/zh-TW/models.json +32 -0
  53. package/locales/zh-TW/plugin.json +3 -0
  54. package/package.json +1 -1
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 2.0.0-next.310](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.309...v2.0.0-next.310)
6
+
7
+ <sup>Released on **2026-01-19**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#11596](https://github.com/lobehub/lobe-chat/issues/11596) ([b02d26c](https://github.com/lobehub/lobe-chat/commit/b02d26c))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ## [Version 2.0.0-next.309](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.308...v2.0.0-next.309)
6
31
 
7
32
  <sup>Released on **2026-01-18**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2026-01-19",
9
+ "version": "2.0.0-next.310"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "fixes": [
@@ -122,26 +122,87 @@ Given('用户在 Page 页面有一个文稿', async function (this: CustomWorld)
122
122
 
123
123
  // Create a unique title for this test page
124
124
  const uniqueTitle = `E2E Page ${Date.now()}`;
125
- const defaultTitleRegex = /^(无标题|Untitled)$/;
126
125
 
127
126
  console.log(` 📍 Step: 重命名为唯一标题 "${uniqueTitle}"...`);
128
- // Find the new page and rename it to ensure uniqueness
129
- const pageItem = this.page.getByText(defaultTitleRegex).first();
127
+ // Find the new page in sidebar (use link selector to avoid matching editor title)
128
+ // Sidebar page items are rendered as <a href="/page/xxx"> links
129
+
130
+ // Debug: check how many links exist
131
+ const allPageLinks = this.page.locator('a[href^="/page/"]');
132
+ const linkCount = await allPageLinks.count();
133
+ console.log(` 📍 Debug: Found ${linkCount} page links in sidebar`);
134
+
135
+ // Find the Untitled page link
136
+ const pageItem = allPageLinks.filter({ hasText: /Untitled|无标题/ }).first();
137
+ const pageItemCount = await allPageLinks.filter({ hasText: /Untitled|无标题/ }).count();
138
+ console.log(` 📍 Debug: Found ${pageItemCount} Untitled page links`);
139
+
130
140
  await expect(pageItem).toBeVisible({ timeout: 5000 });
141
+ console.log(' 📍 Debug: Page item is visible');
131
142
 
132
143
  // Right-click to open context menu and rename
133
144
  await pageItem.click({ button: 'right' });
145
+ console.log(' 📍 Debug: Right-clicked on page item');
134
146
  await this.page.waitForTimeout(500);
135
147
 
136
- const renameOption = this.page.getByRole('menuitem', { name: /^(rename|重命名)$/i });
148
+ // Debug: check menu items
149
+ const menuItemCount = await this.page.locator('[role="menuitem"]').count();
150
+ console.log(` 📍 Debug: Found ${menuItemCount} menu items after right-click`);
151
+
152
+ const renameOption = this.page.getByRole('menuitem', { name: /rename|重命名/i });
137
153
  await expect(renameOption).toBeVisible({ timeout: 5000 });
154
+ console.log(' 📍 Debug: Rename option is visible');
138
155
  await renameOption.click();
139
- await this.page.waitForTimeout(500);
156
+ console.log(' 📍 Debug: Clicked rename option');
157
+ await this.page.waitForTimeout(800);
158
+
159
+ // Wait for rename popover to appear and find the input
160
+ // Try multiple selectors for the input
161
+ const inputSelectors = [
162
+ '.ant-popover input',
163
+ '.ant-popover-content input',
164
+ '[class*="popover"] input',
165
+ 'input[placeholder]',
166
+ ];
167
+
168
+ let popoverInput = null;
169
+ for (const selector of inputSelectors) {
170
+ const inputs = this.page.locator(selector);
171
+ const count = await inputs.count();
172
+ console.log(` 📍 Debug: Selector "${selector}" found ${count} inputs`);
173
+ if (count > 0) {
174
+ // Find the visible one
175
+ for (let i = 0; i < count; i++) {
176
+ const input = inputs.nth(i);
177
+ if (await input.isVisible()) {
178
+ const placeholder = await input.getAttribute('placeholder');
179
+ // Skip search input
180
+ if (placeholder && (placeholder.includes('Search') || placeholder.includes('搜索'))) {
181
+ continue;
182
+ }
183
+ popoverInput = input;
184
+ break;
185
+ }
186
+ }
187
+ if (popoverInput) break;
188
+ }
189
+ }
190
+
191
+ if (!popoverInput) {
192
+ throw new Error('Could not find popover input for renaming');
193
+ }
140
194
 
141
- // Input the unique name (use modKey for cross-platform support)
142
- await this.page.keyboard.press(`${this.modKey}+A`);
143
- await this.page.keyboard.type(uniqueTitle, { delay: 20 });
144
- await this.page.click('body', { position: { x: 10, y: 10 } });
195
+ console.log(' 📍 Debug: Popover input found');
196
+ await expect(popoverInput).toBeVisible({ timeout: 5000 });
197
+
198
+ // Clear and input the unique name
199
+ await popoverInput.click();
200
+ await popoverInput.clear();
201
+ await popoverInput.fill(uniqueTitle);
202
+ console.log(` 📍 Debug: Filled input with "${uniqueTitle}"`);
203
+
204
+ // Press Enter to confirm
205
+ await popoverInput.press('Enter');
145
206
  await this.page.waitForTimeout(1000);
146
207
 
147
208
  // Wait for the renamed page to be visible
@@ -174,8 +235,12 @@ Given('用户在 Page 页面有一个文稿 {string}', async function (this: Cus
174
235
  const defaultTitleRegex = /^(无标题|Untitled)$/;
175
236
 
176
237
  console.log(` 📍 Step: 通过右键菜单重命名文稿为 "${title}"...`);
177
- // Find the new page in the sidebar and rename via context menu
178
- const pageItem = this.page.getByText(defaultTitleRegex).first();
238
+ // Find the new page in sidebar (use link selector to avoid matching editor title)
239
+ // Sidebar page items are rendered as <a href="/page/xxx"> links
240
+ const pageItem = this.page
241
+ .locator('a[href^="/page/"]')
242
+ .filter({ hasText: defaultTitleRegex })
243
+ .first();
179
244
  await expect(pageItem).toBeVisible({ timeout: 5000 });
180
245
 
181
246
  // Right-click to open context menu
@@ -183,15 +248,52 @@ Given('用户在 Page 页面有一个文稿 {string}', async function (this: Cus
183
248
  await this.page.waitForTimeout(500);
184
249
 
185
250
  // Select rename option
186
- const renameOption = this.page.getByRole('menuitem', { name: /^(rename|重命名)$/i });
251
+ const renameOption = this.page.getByRole('menuitem', { name: /rename|重命名/i });
187
252
  await expect(renameOption).toBeVisible({ timeout: 5000 });
188
253
  await renameOption.click();
189
- await this.page.waitForTimeout(500);
254
+ await this.page.waitForTimeout(800);
255
+
256
+ // Wait for rename popover to appear and find the input
257
+ const inputSelectors = [
258
+ '.ant-popover input',
259
+ '.ant-popover-content input',
260
+ '[class*="popover"] input',
261
+ 'input[placeholder]',
262
+ ];
263
+
264
+ let popoverInput = null;
265
+ for (const selector of inputSelectors) {
266
+ const inputs = this.page.locator(selector);
267
+ const count = await inputs.count();
268
+ if (count > 0) {
269
+ for (let i = 0; i < count; i++) {
270
+ const input = inputs.nth(i);
271
+ if (await input.isVisible()) {
272
+ const placeholder = await input.getAttribute('placeholder');
273
+ if (placeholder && (placeholder.includes('Search') || placeholder.includes('搜索'))) {
274
+ continue;
275
+ }
276
+ popoverInput = input;
277
+ break;
278
+ }
279
+ }
280
+ if (popoverInput) break;
281
+ }
282
+ }
283
+
284
+ if (!popoverInput) {
285
+ throw new Error('Could not find popover input for renaming');
286
+ }
287
+
288
+ await expect(popoverInput).toBeVisible({ timeout: 5000 });
289
+
290
+ // Clear and input the new name
291
+ await popoverInput.click();
292
+ await popoverInput.clear();
293
+ await popoverInput.fill(title);
190
294
 
191
- // Input the new name (use modKey for cross-platform support)
192
- await this.page.keyboard.press(`${this.modKey}+A`);
193
- await this.page.keyboard.type(title, { delay: 20 });
194
- await this.page.click('body', { position: { x: 10, y: 10 } });
295
+ // Press Enter to confirm
296
+ await popoverInput.press('Enter');
195
297
  await this.page.waitForTimeout(1000);
196
298
 
197
299
  console.log(' 📍 Step: 查找文稿...');
@@ -28,6 +28,11 @@
28
28
  "apikey.list.columns.status": "حالة التمكين",
29
29
  "apikey.list.title": "قائمة مفاتيح API",
30
30
  "apikey.validation.required": "لا يمكن ترك هذا الحقل فارغًا",
31
+ "authModal.description": "انتهت صلاحية جلسة تسجيل الدخول الخاصة بك. يرجى تسجيل الدخول مرة أخرى لمتابعة استخدام ميزات مزامنة السحابة.",
32
+ "authModal.later": "لاحقًا",
33
+ "authModal.signIn": "تسجيل الدخول مرة أخرى",
34
+ "authModal.signingIn": "جارٍ تسجيل الدخول...",
35
+ "authModal.title": "انتهت الجلسة",
31
36
  "betterAuth.errors.confirmPasswordRequired": "يرجى تأكيد كلمة المرور",
32
37
  "betterAuth.errors.emailExists": "هذا البريد الإلكتروني مسجل بالفعل. يرجى تسجيل الدخول بدلاً من ذلك",
33
38
  "betterAuth.errors.emailInvalid": "يرجى إدخال بريد إلكتروني أو اسم مستخدم صالح",
@@ -396,6 +396,7 @@
396
396
  "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 هو نموذج MoE يحتوي على 685 مليار معلمة، وهو أحدث إصدار من سلسلة دردشة DeepSeek الرائدة.\n\nيعتمد على [DeepSeek V3](/deepseek/deepseek-chat-v3) ويؤدي أداءً قويًا عبر المهام.",
397
397
  "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 هو نموذج استدلال هجين طويل السياق من DeepSeek، يدعم أوضاع التفكير وغير التفكير ودمج الأدوات.",
398
398
  "deepseek/deepseek-chat.description": "DeepSeek-V3 هو نموذج استدلال هجين عالي الأداء من DeepSeek للمهام المعقدة ودمج الأدوات.",
399
+ "deepseek/deepseek-math-v2.description": "DeepSeek Math V2 هو نموذج حقق تقدمًا كبيرًا في قدرات الاستدلال الرياضي. تكمن ابتكاره الأساسي في آلية التدريب \"التحقق الذاتي\"، وقد حصل على مستويات ميدالية ذهبية في العديد من المسابقات الرياضية العالمية.",
399
400
  "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 هو إصدار محدث يركز على الإتاحة المفتوحة والاستدلال الأعمق.",
400
401
  "deepseek/deepseek-r1-0528:free.description": "يحسن DeepSeek-R1 الاستدلال بشكل كبير باستخدام بيانات معنونة قليلة، ويخرج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
401
402
  "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B هو نموذج LLM مكرر يعتمد على Llama 3.3 70B، تم تحسينه باستخدام مخرجات DeepSeek R1 لتحقيق أداء تنافسي مع النماذج الرائدة.",
@@ -629,6 +630,56 @@
629
630
  "gpt-4o-2024-05-13.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والدعم الفني.",
630
631
  "gpt-4o-2024-08-06.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.",
631
632
  "gpt-4o-2024-11-20.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والدعم الفني.",
633
+ "gpt-4o-audio-preview.description": "نموذج معاينة GPT-4o Audio مع إدخال وإخراج صوتي.",
634
+ "gpt-4o-mini-audio-preview.description": "نموذج GPT-4o mini Audio مع إدخال وإخراج صوتي.",
635
+ "gpt-4o-mini-realtime-preview.description": "إصدار GPT-4o-mini الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
636
+ "gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview مدرب على فهم وتنفيذ استعلامات البحث عبر الإنترنت من خلال واجهة Chat Completions API. يتم احتساب تكلفة البحث عبر الإنترنت لكل استخدام أداة بالإضافة إلى تكلفة الرموز.",
637
+ "gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe هو نموذج تحويل الكلام إلى نص يستخدم GPT-4o لتحسين معدل الخطأ في الكلمات، وتحديد اللغة، والدقة مقارنة بنموذج Whisper الأصلي.",
638
+ "gpt-4o-mini-tts.description": "GPT-4o mini TTS هو نموذج تحويل النص إلى كلام مبني على GPT-4o mini، يحول النص إلى كلام طبيعي بحد أقصى 2000 رمز إدخال.",
639
+ "gpt-4o-mini.description": "GPT-4o mini هو أحدث نموذج من OpenAI بعد GPT-4 Omni، يدعم إدخال نصوص وصور مع إخراج نصي. يُعد أكثر النماذج الصغيرة تقدمًا، وأرخص بكثير من النماذج المتقدمة الحديثة، وأقل تكلفة بنسبة تزيد عن 60٪ من GPT-3.5 Turbo، مع الحفاظ على ذكاء من الدرجة الأولى (82٪ MMLU).",
640
+ "gpt-4o-realtime-preview-2024-10-01.description": "إصدار GPT-4o الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
641
+ "gpt-4o-realtime-preview-2025-06-03.description": "إصدار GPT-4o الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
642
+ "gpt-4o-realtime-preview.description": "إصدار GPT-4o الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
643
+ "gpt-4o-search-preview.description": "GPT-4o Search Preview مدرب على فهم وتنفيذ استعلامات البحث عبر الإنترنت من خلال واجهة Chat Completions API. يتم احتساب تكلفة البحث عبر الإنترنت لكل استخدام أداة بالإضافة إلى تكلفة الرموز.",
644
+ "gpt-4o-transcribe.description": "GPT-4o Transcribe هو نموذج تحويل الكلام إلى نص يستخدم GPT-4o لتحسين معدل الخطأ في الكلمات، وتحديد اللغة، والدقة مقارنة بنموذج Whisper الأصلي.",
645
+ "gpt-4o.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والقدرة على التوليد لحالات الاستخدام واسعة النطاق مثل دعم العملاء، والتعليم، والدعم الفني.",
646
+ "gpt-5-chat-latest.description": "نموذج GPT-5 المستخدم في ChatGPT، يجمع بين الفهم القوي والتوليد لتطبيقات المحادثة.",
647
+ "gpt-5-chat.description": "GPT-5 Chat هو نموذج معاينة محسّن لسيناريوهات المحادثة. يدعم إدخال نصوص وصور، ويُخرج نصًا فقط، ومناسب لتطبيقات الدردشة والذكاء الاصطناعي التفاعلي.",
648
+ "gpt-5-codex.description": "GPT-5 Codex هو إصدار من GPT-5 محسّن لمهام البرمجة التلقائية في بيئات مشابهة لـ Codex.",
649
+ "gpt-5-mini.description": "إصدار أسرع وأكثر كفاءة من GPT-5 للمهام المحددة جيدًا، يوفر استجابات أسرع مع الحفاظ على الجودة.",
650
+ "gpt-5-nano.description": "أسرع وأقل تكلفة من إصدارات GPT-5، مثالي للتطبيقات الحساسة للزمن والتكلفة.",
651
+ "gpt-5-pro.description": "GPT-5 pro يستخدم موارد حسابية أكبر للتفكير بعمق وتقديم إجابات أفضل باستمرار.",
652
+ "gpt-5.1-chat-latest.description": "GPT-5.1 Chat: إصدار ChatGPT من GPT-5.1، مصمم لسيناريوهات المحادثة.",
653
+ "gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: إصدار أصغر وأقل تكلفة من Codex، محسّن لمهام البرمجة التلقائية.",
654
+ "gpt-5.1-codex.description": "GPT-5.1 Codex: إصدار من GPT-5.1 محسّن لمهام البرمجة التلقائية، مناسب لتدفقات العمل المعقدة في واجهة Responses API.",
655
+ "gpt-5.1.description": "GPT-5.1 — نموذج رائد محسّن للبرمجة والمهام التلقائية مع جهد استدلال قابل للتكوين وسياق أطول.",
656
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat هو إصدار ChatGPT (chat-latest) لتجربة أحدث تحسينات المحادثة.",
657
+ "gpt-5.2-pro.description": "GPT-5.2 Pro: إصدار أكثر ذكاءً ودقة من GPT-5.2 (متاح فقط عبر Responses API)، مناسب للمشكلات الصعبة والاستدلال متعدد الأدوار الطويل.",
658
+ "gpt-5.2.description": "GPT-5.2 هو نموذج رائد لتدفقات العمل البرمجية والتلقائية مع استدلال أقوى وأداء سياقي طويل.",
659
+ "gpt-5.description": "أفضل نموذج لمهام البرمجة والتلقائية عبر المجالات. يحقق GPT-5 قفزات في الدقة والسرعة والاستدلال والوعي بالسياق والتفكير المنظم وحل المشكلات.",
660
+ "gpt-audio.description": "GPT Audio هو نموذج دردشة عام يدعم الإدخال والإخراج الصوتي، مدعوم في واجهة Chat Completions API.",
661
+ "gpt-image-1-mini.description": "إصدار منخفض التكلفة من GPT Image 1 يدعم إدخال نصوص وصور وإخراج صور.",
662
+ "gpt-image-1.5.description": "نموذج GPT Image 1 محسّن بسرعة توليد أسرع 4×، وتحرير أكثر دقة، وتحسين عرض النصوص.",
663
+ "gpt-image-1.description": "نموذج توليد الصور متعدد الوسائط الأصلي في ChatGPT.",
664
+ "gpt-oss-120b.description": "يتطلب الوصول تقديم طلب. GPT-OSS-120B هو نموذج لغة مفتوح المصدر من OpenAI بقدرات قوية في توليد النصوص.",
665
+ "gpt-oss-20b.description": "يتطلب الوصول تقديم طلب. GPT-OSS-20B هو نموذج لغة متوسط الحجم مفتوح المصدر من OpenAI يتميز بكفاءة في توليد النصوص.",
666
+ "gpt-oss:120b.description": "GPT-OSS 120B هو نموذج لغة مفتوح المصدر كبير من OpenAI يستخدم تقنيات MXFP4 للكم، ويُعد نموذجًا رائدًا. يتطلب بيئات متعددة وحدات GPU أو محطات عمل عالية الأداء، ويقدم أداءً ممتازًا في الاستدلال المعقد وتوليد الأكواد والمعالجة متعددة اللغات، مع دعم متقدم لاستدعاء الوظائف وتكامل الأدوات.",
667
+ "gpt-oss:20b.description": "GPT-OSS 20B هو نموذج لغة مفتوح المصدر من OpenAI يستخدم تقنيات MXFP4 للكم، مناسب لوحدات GPU الاستهلاكية عالية الأداء أو أجهزة Mac بمعالجات Apple Silicon. يتميز بأداء قوي في توليد الحوارات والبرمجة ومهام الاستدلال، ويدعم استدعاء الوظائف واستخدام الأدوات.",
668
+ "gpt-realtime.description": "نموذج عام في الوقت الحقيقي يدعم إدخال وإخراج نصي وصوتي في الوقت الحقيقي، بالإضافة إلى إدخال الصور.",
669
+ "grok-2-image-1212.description": "أحدث نموذج لتوليد الصور لدينا، ينشئ صورًا واقعية وحيوية من التعليمات النصية، ويتفوق في حالات الاستخدام مثل التسويق ووسائل التواصل الاجتماعي والترفيه.",
670
+ "grok-2-vision-1212.description": "تحسين في الدقة، واتباع التعليمات، والقدرة متعددة اللغات.",
671
+ "grok-3-mini.description": "نموذج خفيف الوزن يفكر قبل الرد. سريع وذكي في المهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، مع إمكانية الوصول إلى آثار التفكير الأولية.",
672
+ "grok-3.description": "نموذج رائد يتفوق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة متخصصة عميقة في مجالات مثل المالية والرعاية الصحية والقانون والعلوم.",
673
+ "grok-4-0709.description": "Grok 4 من xAI بقدرات استدلال قوية.",
674
+ "grok-4-1-fast-non-reasoning.description": "نموذج متعدد الوسائط متقدم محسّن لاستخدام أدوات الوكلاء عالية الأداء.",
675
+ "grok-4-1-fast-reasoning.description": "نموذج متعدد الوسائط متقدم محسّن لاستخدام أدوات الوكلاء عالية الأداء.",
676
+ "grok-4-fast-non-reasoning.description": "يسعدنا إطلاق Grok 4 Fast، أحدث تقدم في نماذج الاستدلال منخفضة التكلفة.",
677
+ "grok-4-fast-reasoning.description": "يسعدنا إطلاق Grok 4 Fast، أحدث تقدم في نماذج الاستدلال منخفضة التكلفة.",
678
+ "grok-4.description": "أحدث وأقوى نموذج رائد لدينا، يتفوق في معالجة اللغة الطبيعية والرياضيات والاستدلال — مثالي كأداة شاملة.",
679
+ "grok-code-fast-1.description": "يسعدنا إطلاق grok-code-fast-1، نموذج استدلال سريع وفعال من حيث التكلفة يتفوق في البرمجة التلقائية.",
680
+ "groq/compound-mini.description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم بنماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
681
+ "groq/compound.description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم بعدة نماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
682
+ "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B هو نموذج لغوي إبداعي وذكي مدمج من عدة نماذج رائدة.",
632
683
  "meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
633
684
  "meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
634
685
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
@@ -40,6 +40,7 @@
40
40
  "builtins.lobe-cloud-sandbox.title": "بيئة سحابية",
41
41
  "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "إنشاء وكلاء دفعة واحدة",
42
42
  "builtins.lobe-group-agent-builder.apiName.createAgent": "إنشاء وكيل",
43
+ "builtins.lobe-group-agent-builder.apiName.getAgentInfo": "الحصول على معلومات العضو",
43
44
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "الحصول على النماذج المتاحة",
44
45
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "تثبيت المهارة",
45
46
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "دعوة عضو",
@@ -70,6 +71,8 @@
70
71
  "builtins.lobe-group-management.apiName.summarize": "تلخيص المحادثة",
71
72
  "builtins.lobe-group-management.apiName.vote": "بدء التصويت",
72
73
  "builtins.lobe-group-management.inspector.broadcast.title": "الوكلاء المتحدثون:",
74
+ "builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "تعيين",
75
+ "builtins.lobe-group-management.inspector.executeAgentTask.task": "المهمة:",
73
76
  "builtins.lobe-group-management.inspector.executeAgentTasks.title": "تعيين المهام إلى:",
74
77
  "builtins.lobe-group-management.inspector.speak.title": "المتحدث المحدد:",
75
78
  "builtins.lobe-group-management.title": "منسق المجموعة",
@@ -28,6 +28,11 @@
28
28
  "apikey.list.columns.status": "Статус",
29
29
  "apikey.list.title": "Списък с API ключове",
30
30
  "apikey.validation.required": "Това поле не може да бъде празно",
31
+ "authModal.description": "Вашата сесия за вход е изтекла. Моля, влезте отново, за да продължите да използвате функциите за синхронизация в облака.",
32
+ "authModal.later": "По-късно",
33
+ "authModal.signIn": "Влезте отново",
34
+ "authModal.signingIn": "Влизане...",
35
+ "authModal.title": "Сесията е изтекла",
31
36
  "betterAuth.errors.confirmPasswordRequired": "Моля, потвърдете паролата си",
32
37
  "betterAuth.errors.emailExists": "Този имейл вече е регистриран. Моля, влезте в профила си",
33
38
  "betterAuth.errors.emailInvalid": "Моля, въведете валиден имейл адрес или потребителско име",
@@ -396,6 +396,7 @@
396
396
  "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 е MoE модел с 685 милиарда параметъра и най-новата итерация от водещата чат серия на DeepSeek.\n\nНадгражда [DeepSeek V3](/deepseek/deepseek-chat-v3) и се представя отлично в различни задачи.",
397
397
  "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 е хибриден модел за разсъждение с дълъг контекст от DeepSeek, поддържащ смесени режими на мислене/без мислене и интеграция с инструменти.",
398
398
  "deepseek/deepseek-chat.description": "DeepSeek-V3 е високоефективен хибриден модел за разсъждение от DeepSeek, предназначен за сложни задачи и интеграция с инструменти.",
399
+ "deepseek/deepseek-math-v2.description": "DeepSeek Math V2 е модел, който постига значителни пробиви в способностите за математическо разсъждение. Основната му иновация е в механизма за обучение чрез „самопроверка“ и е достигнал ниво на златен медал в няколко от най-престижните математически състезания.",
399
400
  "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 е обновен вариант, фокусиран върху отворен достъп и по-дълбоко разсъждение.",
400
401
  "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значително подобрява разсъждението с минимално етикетирани данни и извежда верига от мисли преди крайния отговор за повишаване на точността.",
401
402
  "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B е дестилиран LLM, базиран на Llama 3.3 70B, фино настроен с изходи от DeepSeek R1 за постигане на конкурентна производителност спрямо водещите модели.",
@@ -572,6 +573,46 @@
572
573
  "glm-z1-flash.description": "Серията GLM-Z1 осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
573
574
  "glm-z1-flashx.description": "Бърз и икономичен: Flash-усилен с ултра-бързо логическо мислене и по-висока едновременност.",
574
575
  "glm-zero-preview.description": "GLM-Zero-Preview осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
576
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 е водещият модел на Anthropic, който съчетава изключителен интелект и мащабируема производителност за сложни задачи, изискващи най-високо качество на отговорите и разсъжденията.",
577
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash предоставя възможности от ново поколение, включително отлична скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
578
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental е най-новият експериментален мултимодален AI модел на Google с подобрено качество спрямо предишните версии, особено в световните знания, програмиране и дълъг контекст.",
579
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite е олекотен вариант на Gemini с изключено мислене по подразбиране за подобрена латентност и разходи, но може да бъде активирано чрез параметри.",
580
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
581
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash е високопроизводителен модел на Google за разширени мултимодални задачи с разсъждение.",
582
+ "google/gemini-2.5-flash-image-free.description": "Безплатен слой на Gemini 2.5 Flash Image с ограничен капацитет за мултимодално генериране.",
583
+ "google/gemini-2.5-flash-image-preview.description": "Експериментален модел Gemini 2.5 Flash с поддръжка за генериране на изображения.",
584
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) е модел на Google за генериране на изображения с поддръжка на мултимодален разговор.",
585
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite е олекотен вариант на Gemini 2.5, оптимизиран за ниска латентност и разходи, подходящ за сценарии с висок трафик.",
586
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash е най-усъвършенстваният водещ модел на Google, създаден за напреднало разсъждение, програмиране, математика и научни задачи. Включва вградено „мислене“ за по-точни отговори и по-фино обработване на контекста.\n\nЗабележка: Моделът има два варианта — с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали мисленето е активирано. Ако изберете стандартния вариант (без суфикса “:thinking”), моделът изрично ще избягва генериране на мисловни токени.\n\nЗа да използвате мислене и да получавате мисловни токени, трябва да изберете варианта “:thinking”, който има по-висока цена за изхода.\n\nGemini 2.5 Flash може също да бъде конфигуриран чрез параметъра “max reasoning tokens”, както е документирано (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
587
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash е най-усъвършенстваният водещ модел на Google, създаден за напреднало разсъждение, програмиране, математика и научни задачи. Включва вградено „мислене“ за по-точни отговори и по-фино обработване на контекста.\n\nЗабележка: Моделът има два варианта — с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали мисленето е активирано. Ако изберете стандартния вариант (без суфикса “:thinking”), моделът изрично ще избягва генериране на мисловни токени.\n\nЗа да използвате мислене и да получавате мисловни токени, трябва да изберете варианта “:thinking”, който има по-висока цена за изхода.\n\nGemini 2.5 Flash може също да бъде конфигуриран чрез параметъра “max reasoning tokens”, както е документирано (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
588
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) е фамилия от модели на Google, обхващаща от ниска латентност до високопроизводително разсъждение.",
589
+ "google/gemini-2.5-pro-free.description": "Безплатен слой на Gemini 2.5 Pro с ограничен капацитет за мултимодален дълъг контекст, подходящ за тестове и леки работни потоци.",
590
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният мисловен модел на Google за разсъждение върху сложни проблеми в програмирането, математиката и STEM, както и за анализ на големи набори от данни, кодови бази и документи с дълъг контекст.",
591
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro е водещият модел на Google за разсъждение с поддръжка на дълъг контекст за сложни задачи.",
592
+ "google/gemini-3-pro-image-preview-free.description": "Безплатен слой на Gemini 3 Pro Image с ограничен капацитет за мултимодално генериране.",
593
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения с поддръжка на мултимодален разговор.",
594
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free предлага същото мултимодално разбиране и разсъждение като стандартната версия, но с квотни и честотни ограничения, което го прави подходящ за тестове и нискочестотна употреба.",
595
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro е модел от ново поколение за мултимодално разсъждение от фамилията Gemini, който разбира текст, аудио, изображения и видео и се справя със сложни задачи и големи кодови бази.",
596
+ "google/gemini-embedding-001.description": "Модел за вграждане от най-ново поколение с висока производителност при задачи на английски, многоезични и кодови задачи.",
597
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash осигурява оптимизирана мултимодална обработка за широк спектър от сложни задачи.",
598
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro съчетава най-новите оптимизации за по-ефективна обработка на мултимодални данни.",
599
+ "google/gemma-2-27b-it.description": "Gemma 2 27B е универсален LLM с висока производителност в множество сценарии.",
600
+ "google/gemma-2-27b.description": "Gemma 2 е ефективна фамилия модели на Google за приложения от малки приложения до сложна обработка на данни.",
601
+ "google/gemma-2-2b-it.description": "Разширен малък езиков модел, проектиран за edge приложения.",
602
+ "google/gemma-2-9b-it.description": "Gemma 2 9B, разработен от Google, предлага ефективно следване на инструкции и стабилни общи възможности.",
603
+ "google/gemma-2-9b-it:free.description": "Gemma 2 е олекотена фамилия модели с отворен код на Google за текст.",
604
+ "google/gemma-2-9b.description": "Gemma 2 е ефективна фамилия модели на Google за приложения от малки приложения до сложна обработка на данни.",
605
+ "google/gemma-2b-it.description": "Gemma Instruct (2B) осигурява базова обработка на инструкции за олекотени приложения.",
606
+ "google/gemma-3-12b-it.description": "Gemma 3 12B е езиков модел с отворен код от Google, който поставя нов стандарт за ефективност и производителност.",
607
+ "google/gemma-3-27b-it.description": "Gemma 3 27B е езиков модел с отворен код от Google, който поставя нов стандарт за ефективност и производителност.",
608
+ "google/text-embedding-005.description": "Модел за вграждане на текст, фокусиран върху английски език, оптимизиран за задачи с код и английски език.",
609
+ "google/text-multilingual-embedding-002.description": "Многоезичен модел за вграждане на текст, оптимизиран за задачи с кръстосан езиков обхват на много езици.",
610
+ "gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
611
+ "gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
612
+ "gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo за задачи с генериране и разбиране на текст, оптимизиран за следване на инструкции.",
613
+ "gpt-3.5-turbo.description": "GPT 3.5 Turbo за генериране и разбиране на текст; в момента сочи към gpt-3.5-turbo-0125.",
614
+ "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k е модел за генериране на текст с висока капацитетност за сложни задачи.",
615
+ "gpt-35-turbo.description": "GPT-3.5 Turbo е ефективният модел на OpenAI за чат и генериране на текст, поддържащ паралелно извикване на функции.",
575
616
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
576
617
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
577
618
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -40,6 +40,7 @@
40
40
  "builtins.lobe-cloud-sandbox.title": "Облачна пясъчник среда",
41
41
  "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Създай агенти на групи",
42
42
  "builtins.lobe-group-agent-builder.apiName.createAgent": "Създай агент",
43
+ "builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Извличане на информация за член",
43
44
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
44
45
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Инсталиране на умение",
45
46
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Покана на член",
@@ -70,6 +71,8 @@
70
71
  "builtins.lobe-group-management.apiName.summarize": "Обобщаване на разговора",
71
72
  "builtins.lobe-group-management.apiName.vote": "Започване на гласуване",
72
73
  "builtins.lobe-group-management.inspector.broadcast.title": "Следните агенти говорят:",
74
+ "builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Назначи",
75
+ "builtins.lobe-group-management.inspector.executeAgentTask.task": "задача:",
73
76
  "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Възлагане на задачи на:",
74
77
  "builtins.lobe-group-management.inspector.speak.title": "Назначен агент говори:",
75
78
  "builtins.lobe-group-management.title": "Координатор на група",
@@ -28,6 +28,11 @@
28
28
  "apikey.list.columns.status": "Status aktiviert",
29
29
  "apikey.list.title": "API-Schlüsselliste",
30
30
  "apikey.validation.required": "Dieses Feld darf nicht leer sein",
31
+ "authModal.description": "Ihre Anmeldesitzung ist abgelaufen. Bitte melden Sie sich erneut an, um die Cloud-Synchronisierungsfunktionen weiterhin nutzen zu können.",
32
+ "authModal.later": "Später",
33
+ "authModal.signIn": "Erneut anmelden",
34
+ "authModal.signingIn": "Anmeldung läuft...",
35
+ "authModal.title": "Sitzung abgelaufen",
31
36
  "betterAuth.errors.confirmPasswordRequired": "Bitte bestätigen Sie Ihr Passwort",
32
37
  "betterAuth.errors.emailExists": "Diese E-Mail ist bereits registriert. Bitte melden Sie sich stattdessen an",
33
38
  "betterAuth.errors.emailInvalid": "Bitte geben Sie eine gültige E-Mail-Adresse oder einen Benutzernamen ein",
@@ -396,6 +396,7 @@
396
396
  "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 ist ein MoE-Modell mit 685 Milliarden Parametern und die neueste Iteration der Flaggschiff-Chatreihe von DeepSeek.\n\nEs basiert auf [DeepSeek V3](/deepseek/deepseek-chat-v3) und zeigt starke Leistung in verschiedenen Aufgaben.",
397
397
  "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 ist das hybride Langkontext-Schlussfolgerungsmodell von DeepSeek, das gemischte Denk-/Nicht-Denk-Modi und Tool-Integration unterstützt.",
398
398
  "deepseek/deepseek-chat.description": "DeepSeek-V3 ist das leistungsstarke hybride Schlussfolgerungsmodell von DeepSeek für komplexe Aufgaben und Tool-Integration.",
399
+ "deepseek/deepseek-math-v2.description": "DeepSeek Math V2 ist ein Modell mit bedeutenden Durchbrüchen im mathematischen Denkvermögen. Die zentrale Innovation liegt im Trainingsmechanismus der „Selbstverifikation“. Es hat Goldmedaillenniveau bei mehreren renommierten Mathematikwettbewerben erreicht.",
399
400
  "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 ist eine aktualisierte Variante mit Fokus auf offene Verfügbarkeit und tiefere Schlussfolgerungen.",
400
401
  "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 verbessert die Schlussfolgerung erheblich mit minimalen gelabelten Daten und gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
401
402
  "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B ist ein destilliertes Sprachmodell basierend auf Llama 3.3 70B, feinabgestimmt mit Ausgaben von DeepSeek R1, um eine konkurrenzfähige Leistung mit großen Modellen zu erreichen.",
@@ -627,6 +628,44 @@
627
628
  "gpt-4.5-preview.description": "GPT-4.5-preview ist das neueste Allzweckmodell mit tiefem Weltwissen und besserem Verständnis von Absichten. Es ist stark in kreativen Aufgaben und Agentenplanung. Der Wissensstand ist Oktober 2023.",
628
629
  "gpt-4.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
629
630
  "gpt-4o-2024-05-13.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeitaktualisierung, das starkes Verständnis und Generierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
631
+ "gpt-4o-2024-08-06.description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird. Es kombiniert ein starkes Sprachverständnis mit leistungsfähiger Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Unterstützung.",
632
+ "gpt-4o-2024-11-20.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Sprachverständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Hilfe vereint.",
633
+ "gpt-4o-audio-preview.description": "GPT-4o Audio-Vorschau-Modell mit Audioeingabe und -ausgabe.",
634
+ "gpt-4o-mini-audio-preview.description": "GPT-4o Mini Audio-Modell mit Audioeingabe und -ausgabe.",
635
+ "gpt-4o-mini-realtime-preview.description": "GPT-4o-mini-Echtzeitvariante mit Audio- und Textein-/ausgabe in Echtzeit.",
636
+ "gpt-4o-mini-search-preview.description": "GPT-4o Mini Search Preview ist darauf trainiert, Websuchanfragen über die Chat Completions API zu verstehen und auszuführen. Websuchen werden zusätzlich zu den Tokenkosten pro Tool-Aufruf abgerechnet.",
637
+ "gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe ist ein Sprach-zu-Text-Modell, das Audio mit GPT-4o transkribiert und die Wortfehlerrate, Spracherkennung und Genauigkeit gegenüber dem ursprünglichen Whisper-Modell verbessert.",
638
+ "gpt-4o-mini-tts.description": "GPT-4o Mini TTS ist ein Text-zu-Sprache-Modell auf Basis von GPT-4o Mini, das Text in natürlich klingende Sprache umwandelt (max. 2000 Token Eingabe).",
639
+ "gpt-4o-mini.description": "GPT-4o Mini ist OpenAIs neuestes Modell nach GPT-4 Omni. Es unterstützt Text- und Bildeingaben mit Textausgabe. Es ist das fortschrittlichste kleine Modell von OpenAI, deutlich günstiger als aktuelle Spitzenmodelle und über 60 % günstiger als GPT-3.5 Turbo – bei gleichbleibend hoher Intelligenz (82 % MMLU).",
640
+ "gpt-4o-realtime-preview-2024-10-01.description": "GPT-4o-Echtzeitvariante mit Audio- und Textein-/ausgabe in Echtzeit.",
641
+ "gpt-4o-realtime-preview-2025-06-03.description": "GPT-4o-Echtzeitvariante mit Audio- und Textein-/ausgabe in Echtzeit.",
642
+ "gpt-4o-realtime-preview.description": "GPT-4o-Echtzeitvariante mit Audio- und Textein-/ausgabe in Echtzeit.",
643
+ "gpt-4o-search-preview.description": "GPT-4o Search Preview ist darauf trainiert, Websuchanfragen über die Chat Completions API zu verstehen und auszuführen. Websuchen werden zusätzlich zu den Tokenkosten pro Tool-Aufruf abgerechnet.",
644
+ "gpt-4o-transcribe.description": "GPT-4o Transcribe ist ein Sprach-zu-Text-Modell, das Audio mit GPT-4o transkribiert und die Wortfehlerrate, Spracherkennung und Genauigkeit gegenüber dem ursprünglichen Whisper-Modell verbessert.",
645
+ "gpt-4o.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Sprachverständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Hilfe vereint.",
646
+ "gpt-5-chat-latest.description": "Das GPT-5-Modell in ChatGPT kombiniert starkes Sprachverständnis und Textgenerierung für Konversationsanwendungen.",
647
+ "gpt-5-chat.description": "GPT-5 Chat ist ein Vorschau-Modell, das für Konversationsszenarien optimiert ist. Es unterstützt Text- und Bildeingaben, gibt jedoch nur Text aus und eignet sich für Chatbots und dialogbasierte KI-Anwendungen.",
648
+ "gpt-5-codex.description": "GPT-5 Codex ist eine GPT-5-Variante, die für agentenbasiertes Programmieren in Codex-ähnlichen Umgebungen optimiert ist.",
649
+ "gpt-5-mini.description": "Eine schnellere, kosteneffizientere GPT-5-Variante für klar definierte Aufgaben, die schnelle Antworten bei gleichbleibender Qualität liefert.",
650
+ "gpt-5-nano.description": "Die schnellste und kostengünstigste GPT-5-Variante – ideal für latenz- und kostenkritische Anwendungen.",
651
+ "gpt-5-pro.description": "GPT-5 Pro nutzt mehr Rechenleistung für tiefere Überlegungen und liefert konsistent bessere Antworten.",
652
+ "gpt-5.1-chat-latest.description": "GPT-5.1 Chat: die ChatGPT-Variante von GPT-5.1, entwickelt für Chat-Szenarien.",
653
+ "gpt-5.1-codex-mini.description": "GPT-5.1 Codex Mini: eine kleinere, kostengünstigere Codex-Variante, optimiert für agentenbasiertes Programmieren.",
654
+ "gpt-5.1-codex.description": "GPT-5.1 Codex: eine GPT-5.1-Variante, optimiert für agentenbasiertes Programmieren und komplexe Code-/Agenten-Workflows in der Responses API.",
655
+ "gpt-5.1.description": "GPT-5.1 – ein Spitzenmodell, optimiert für Programmier- und Agentenaufgaben mit konfigurierbarem Denkaufwand und erweitertem Kontext.",
656
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat ist die ChatGPT-Variante (chat-latest), um die neuesten Verbesserungen im Dialogverhalten zu erleben.",
657
+ "gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für schwierige Probleme und mehrstufiges Denken.",
658
+ "gpt-5.2.description": "GPT-5.2 ist ein Spitzenmodell für Programmier- und agentenbasierte Workflows mit verbessertem Denkvermögen und Langkontextleistung.",
659
+ "gpt-5.description": "Das beste Modell für domänenübergreifendes Programmieren und Agentenaufgaben. GPT-5 bietet große Fortschritte in Genauigkeit, Geschwindigkeit, logischem Denken, Kontextverständnis, strukturiertem Denken und Problemlösung.",
660
+ "gpt-audio.description": "GPT Audio ist ein allgemeines Chat-Modell mit Audioein- und -ausgabe, unterstützt durch die Chat Completions API.",
661
+ "gpt-image-1-mini.description": "Eine kostengünstigere GPT Image 1-Variante mit nativer Text- und Bildeingabe sowie Bildausgabe.",
662
+ "gpt-image-1.5.description": "Ein verbessertes GPT Image 1-Modell mit 4× schnellerer Generierung, präziserer Bearbeitung und besserer Textrendering.",
663
+ "gpt-image-1.description": "ChatGPTs natives multimodales Bildgenerierungsmodell.",
664
+ "gpt-oss-120b.description": "Zugriff erfordert eine Bewerbung. GPT-OSS-120B ist ein Open-Source-Sprachmodell von OpenAI mit starker Textgenerierung.",
665
+ "gpt-oss-20b.description": "Zugriff erfordert eine Bewerbung. GPT-OSS-20B ist ein mittelgroßes Open-Source-Sprachmodell von OpenAI mit effizienter Textgenerierung.",
666
+ "gpt-oss:120b.description": "GPT-OSS 120B ist OpenAIs großes Open-Source-LLM mit MXFP4-Quantisierung und als Flaggschiffmodell positioniert. Es erfordert Multi-GPU- oder High-End-Workstation-Umgebungen und bietet exzellente Leistung bei komplexem Denken, Codegenerierung und mehrsprachiger Verarbeitung mit fortschrittlichem Funktionsaufruf und Tool-Integration.",
667
+ "gpt-oss:20b.description": "GPT-OSS 20B ist ein Open-Source-LLM von OpenAI mit MXFP4-Quantisierung, geeignet für High-End-Consumer-GPUs oder Apple Silicon Macs. Es überzeugt bei Dialoggenerierung, Programmierung und Denkaufgaben und unterstützt Funktionsaufrufe und Tool-Nutzung.",
668
+ "gpt-realtime.description": "Ein allgemeines Echtzeitmodell mit Unterstützung für Text- und Audio-Ein-/Ausgabe sowie Bildeingabe.",
630
669
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
631
670
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
632
671
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -40,6 +40,7 @@
40
40
  "builtins.lobe-cloud-sandbox.title": "Cloud-Sandbox",
41
41
  "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Agenten stapelweise erstellen",
42
42
  "builtins.lobe-group-agent-builder.apiName.createAgent": "Agent erstellen",
43
+ "builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Mitgliederinformationen abrufen",
43
44
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
44
45
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Skill installieren",
45
46
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Mitglied einladen",
@@ -70,6 +71,8 @@
70
71
  "builtins.lobe-group-management.apiName.summarize": "Gespräch zusammenfassen",
71
72
  "builtins.lobe-group-management.apiName.vote": "Abstimmung starten",
72
73
  "builtins.lobe-group-management.inspector.broadcast.title": "Folgende Agenten sprechen:",
74
+ "builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Zuweisen",
75
+ "builtins.lobe-group-management.inspector.executeAgentTask.task": "Aufgabe:",
73
76
  "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Aufgaben zuweisen an:",
74
77
  "builtins.lobe-group-management.inspector.speak.title": "Zugewiesener Agent spricht:",
75
78
  "builtins.lobe-group-management.title": "Gruppenkoordinator",
@@ -396,6 +396,7 @@
396
396
  "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 is a 685B-parameter MoE model and the latest iteration of DeepSeek’s flagship chat series.\n\nIt builds on [DeepSeek V3](/deepseek/deepseek-chat-v3) and performs strongly across tasks.",
397
397
  "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 is DeepSeek’s long-context hybrid reasoning model, supporting mixed thinking/non-thinking modes and tool integration.",
398
398
  "deepseek/deepseek-chat.description": "DeepSeek-V3 is DeepSeek’s high-performance hybrid reasoning model for complex tasks and tool integration.",
399
+ "deepseek/deepseek-math-v2.description": "DeepSeek Math V2 is a model that has made significant breakthroughs in mathematical reasoning capabilities. Its core innovation lies in the \"self-verification\" training mechanism, and it has achieved gold medal levels in several top mathematics competitions.",
399
400
  "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 is an updated variant focused on open availability and deeper reasoning.",
400
401
  "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 greatly improves reasoning with minimal labeled data and outputs a chain-of-thought before the final answer to improve accuracy.",
401
402
  "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B is a distilled LLM based on Llama 3.3 70B, fine-tuned using DeepSeek R1 outputs to achieve competitive performance with large frontier models.",
@@ -28,6 +28,11 @@
28
28
  "apikey.list.columns.status": "Estado habilitado",
29
29
  "apikey.list.title": "Lista de claves API",
30
30
  "apikey.validation.required": "Este campo no puede estar vacío",
31
+ "authModal.description": "Tu sesión ha expirado. Por favor, inicia sesión nuevamente para seguir utilizando las funciones de sincronización en la nube.",
32
+ "authModal.later": "Más tarde",
33
+ "authModal.signIn": "Iniciar sesión de nuevo",
34
+ "authModal.signingIn": "Iniciando sesión...",
35
+ "authModal.title": "Sesión expirada",
31
36
  "betterAuth.errors.confirmPasswordRequired": "Por favor, confirme su contraseña",
32
37
  "betterAuth.errors.emailExists": "Este correo ya está registrado. Por favor, inicie sesión",
33
38
  "betterAuth.errors.emailInvalid": "Por favor, ingrese un correo electrónico o nombre de usuario válido",