@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.273

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (90) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/discover.json +2 -2
  5. package/locales/ar/models.json +38 -9
  6. package/locales/ar/onboarding.json +1 -1
  7. package/locales/ar/providers.json +0 -1
  8. package/locales/bg-BG/common.json +2 -0
  9. package/locales/bg-BG/discover.json +2 -2
  10. package/locales/bg-BG/models.json +45 -10
  11. package/locales/bg-BG/onboarding.json +1 -1
  12. package/locales/bg-BG/providers.json +0 -1
  13. package/locales/de-DE/common.json +2 -0
  14. package/locales/de-DE/discover.json +2 -2
  15. package/locales/de-DE/models.json +34 -9
  16. package/locales/de-DE/onboarding.json +3 -0
  17. package/locales/de-DE/providers.json +0 -1
  18. package/locales/en-US/discover.json +2 -2
  19. package/locales/en-US/models.json +10 -10
  20. package/locales/en-US/providers.json +0 -1
  21. package/locales/es-ES/common.json +2 -0
  22. package/locales/es-ES/discover.json +2 -2
  23. package/locales/es-ES/models.json +29 -10
  24. package/locales/es-ES/onboarding.json +3 -0
  25. package/locales/es-ES/providers.json +0 -1
  26. package/locales/fa-IR/common.json +2 -0
  27. package/locales/fa-IR/discover.json +2 -2
  28. package/locales/fa-IR/models.json +33 -10
  29. package/locales/fa-IR/onboarding.json +3 -0
  30. package/locales/fa-IR/providers.json +0 -1
  31. package/locales/fr-FR/common.json +2 -0
  32. package/locales/fr-FR/discover.json +2 -2
  33. package/locales/fr-FR/models.json +45 -10
  34. package/locales/fr-FR/onboarding.json +3 -0
  35. package/locales/fr-FR/providers.json +0 -1
  36. package/locales/it-IT/common.json +2 -0
  37. package/locales/it-IT/discover.json +2 -2
  38. package/locales/it-IT/models.json +5 -10
  39. package/locales/it-IT/onboarding.json +3 -0
  40. package/locales/it-IT/providers.json +0 -1
  41. package/locales/ja-JP/common.json +2 -0
  42. package/locales/ja-JP/discover.json +2 -2
  43. package/locales/ja-JP/models.json +34 -5
  44. package/locales/ja-JP/onboarding.json +3 -0
  45. package/locales/ja-JP/providers.json +0 -1
  46. package/locales/ko-KR/common.json +2 -0
  47. package/locales/ko-KR/discover.json +2 -2
  48. package/locales/ko-KR/models.json +5 -11
  49. package/locales/ko-KR/onboarding.json +3 -0
  50. package/locales/ko-KR/providers.json +0 -1
  51. package/locales/nl-NL/common.json +2 -0
  52. package/locales/nl-NL/discover.json +2 -2
  53. package/locales/nl-NL/models.json +47 -6
  54. package/locales/nl-NL/onboarding.json +3 -0
  55. package/locales/nl-NL/providers.json +0 -1
  56. package/locales/pl-PL/common.json +2 -0
  57. package/locales/pl-PL/discover.json +2 -2
  58. package/locales/pl-PL/models.json +35 -10
  59. package/locales/pl-PL/onboarding.json +3 -0
  60. package/locales/pl-PL/providers.json +0 -1
  61. package/locales/pt-BR/common.json +2 -0
  62. package/locales/pt-BR/discover.json +2 -2
  63. package/locales/pt-BR/models.json +47 -9
  64. package/locales/pt-BR/onboarding.json +3 -0
  65. package/locales/pt-BR/providers.json +0 -1
  66. package/locales/ru-RU/common.json +2 -0
  67. package/locales/ru-RU/discover.json +2 -2
  68. package/locales/ru-RU/models.json +52 -10
  69. package/locales/ru-RU/onboarding.json +3 -0
  70. package/locales/ru-RU/providers.json +0 -1
  71. package/locales/tr-TR/common.json +2 -0
  72. package/locales/tr-TR/discover.json +2 -2
  73. package/locales/tr-TR/models.json +38 -10
  74. package/locales/tr-TR/onboarding.json +3 -0
  75. package/locales/tr-TR/providers.json +0 -1
  76. package/locales/vi-VN/common.json +2 -0
  77. package/locales/vi-VN/discover.json +2 -2
  78. package/locales/vi-VN/models.json +5 -5
  79. package/locales/vi-VN/onboarding.json +3 -0
  80. package/locales/vi-VN/providers.json +0 -1
  81. package/locales/zh-CN/discover.json +2 -2
  82. package/locales/zh-CN/models.json +41 -9
  83. package/locales/zh-CN/onboarding.json +3 -0
  84. package/locales/zh-CN/providers.json +0 -1
  85. package/locales/zh-TW/common.json +2 -0
  86. package/locales/zh-TW/discover.json +2 -2
  87. package/locales/zh-TW/models.json +43 -9
  88. package/locales/zh-TW/onboarding.json +3 -0
  89. package/locales/zh-TW/providers.json +0 -1
  90. package/package.json +1 -1
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 2.0.0-next.273](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.272...v2.0.0-next.273)
6
+
7
+ <sup>Released on **2026-01-13**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#11425](https://github.com/lobehub/lobe-chat/issues/11425) ([87fbed2](https://github.com/lobehub/lobe-chat/commit/87fbed2))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ## [Version 2.0.0-next.272](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.271...v2.0.0-next.272)
6
31
 
7
32
  <sup>Released on **2026-01-13**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2026-01-13",
9
+ "version": "2.0.0-next.273"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "fixes": [
@@ -391,4 +391,4 @@
391
391
  "userPanel.setting": "الإعدادات",
392
392
  "userPanel.usages": "إحصائيات الاستخدام",
393
393
  "version": "الإصدار"
394
- }
394
+ }
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "المزيد",
57
57
  "assistants.plugins": "المهارات المدمجة",
58
58
  "assistants.recentSubmits": "التحديثات الأخيرة",
59
- "assistants.sorts.recommended": "موصى به",
60
59
  "assistants.sorts.createdAt": "تم النشر مؤخرًا",
61
60
  "assistants.sorts.identifier": "معرّف الوكيل",
62
61
  "assistants.sorts.knowledgeCount": "عدد المكتبات",
63
62
  "assistants.sorts.myown": "عرض وكلائي",
64
63
  "assistants.sorts.pluginCount": "عدد المهارات",
64
+ "assistants.sorts.recommended": "موصى به",
65
65
  "assistants.sorts.title": "اسم الوكيل",
66
66
  "assistants.sorts.tokenUsage": "استخدام الرموز",
67
67
  "assistants.status.archived.reasons.official": "قامت المنصة بإزالة هذا الوكيل لأسباب تتعلق بالأمان أو السياسات أو غيرها.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "يتضمن هذا الوكيل مكتبات",
84
84
  "assistants.withPlugin": "يتضمن هذا الوكيل مهارات",
85
85
  "back": "العودة إلى الاكتشاف",
86
- "category.assistant.discover": "استكشاف",
87
86
  "category.assistant.academic": "أكاديمي",
88
87
  "category.assistant.all": "الكل",
89
88
  "category.assistant.career": "المسار المهني",
90
89
  "category.assistant.copywriting": "كتابة المحتوى",
91
90
  "category.assistant.design": "تصميم",
91
+ "category.assistant.discover": "استكشاف",
92
92
  "category.assistant.education": "تعليم",
93
93
  "category.assistant.emotions": "العواطف",
94
94
  "category.assistant.entertainment": "ترفيه",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
272
272
  "claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
273
273
  "claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic، مع تحسينات في المهارات وتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، يقدم تحسينات في المهارات ويتفوق على أكبر نموذج سابق Claude 3 Opus في العديد من اختبارات الذكاء.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق. يمكنه تقديم ردود شبه فورية أو استدلال تدريجي مرئي للمستخدمين. يتميز Sonnet بقوة خاصة في البرمجة، علم البيانات، الرؤية، ومهام الوكلاء.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير المطول.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة البرق وقدرة استدلال موسعة.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكير متسلسل خطوة بخطوة مع تحكم دقيق لمستخدمي واجهة البرمجة.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي خطوة بخطوة مع عرض العملية للمستخدم.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
289
289
  "codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
358
- "deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية والمهام الوكيلة. يحقق نتائج مماثلة لـ GPT-5 في المعايير العامة، وهو أول من يدمج التفكير في استخدام الأدوات، مما يجعله رائدًا في تقييمات النماذج مفتوحة المصدر.",
358
+ "deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة البرمجة في نموذج المبرمج، مع تحسين توافق التفضيلات. DeepSeek-V2.5 يعزز أيضًا مهارات الكتابة واتباع التعليمات.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
379
379
  "deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
380
380
  "deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج استدلال عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية واستدلال يقارن بـ Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
382
382
  "deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، والتصنيف، والاستدلال منخفض التكلفة.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
473
473
  "ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، من تطوير فريق ByteDance Seed، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة من خلال الأوامر.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يقوم بإنشاء صور من التعليمات النصية.",
475
475
  "fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
480
480
  "fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
482
- "fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، تحرير النصوص بدقة باللغتين الصينية والإنجليزية، نقل الأنماط، التدوير، والمزيد.",
483
- "fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بعرض نصوص صينية قوية وأنماط بصرية متنوعة.",
482
+ "fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويدعم تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
483
+ "fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض نصوص صينية مبهرة وأنماط بصرية متنوعة.",
484
484
  "flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
485
485
  "flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
486
486
  "flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
@@ -563,6 +563,35 @@
563
563
  "glm-4.6.description": "GLM-4.6 (355B) هو النموذج الرائد الأحدث من Zhipu، يتفوق على الجيل السابق في الترميز المتقدم، معالجة النصوص الطويلة، الاستدلال، وقدرات الوكلاء، ويتماشى مع Claude Sonnet 4 في قدرات البرمجة، مما يجعله النموذج الأفضل في الصين للبرمجة.",
564
564
  "glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، يعزز قدرات الترميز، تخطيط المهام طويلة المدى، والتكامل مع الأدوات في سيناريوهات الترميز الوكيلة. يحقق أداءً رائدًا بين النماذج مفتوحة المصدر في العديد من المعايير العامة، مع تحسينات في القدرات العامة، استجابات أكثر طبيعية، وكتابة أكثر جاذبية. كما يعزز الالتزام بالتعليمات عند استخدام الأدوات، ويحسن من جمالية الواجهات وكفاءة تنفيذ المهام طويلة المدى.",
565
565
  "glm-4.description": "GLM-4 هو النموذج الرائد الأقدم الذي تم إصداره في يناير 2024، وقد تم استبداله الآن بـ GLM-4-0520 الأقوى.",
566
+ "glm-4v-flash.description": "GLM-4V-Flash يركز على فهم صورة واحدة بكفاءة لسيناريوهات التحليل السريع مثل المعالجة الفورية أو الدفعية للصور.",
567
+ "glm-4v-plus-0111.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.",
568
+ "glm-4v-plus.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.",
569
+ "glm-4v.description": "GLM-4V يقدم فهمًا قويًا للصور واستدلالًا عبر المهام البصرية.",
570
+ "glm-z1-air.description": "نموذج استدلال يتمتع بقدرات استنتاج قوية للمهام التي تتطلب استدلالًا عميقًا.",
571
+ "glm-z1-airx.description": "استدلال فائق السرعة مع جودة استدلال عالية.",
572
+ "glm-z1-flash.description": "سلسلة GLM-Z1 تقدم استدلالًا معقدًا قويًا، وتتفوق في المنطق، الرياضيات، والبرمجة.",
573
+ "glm-z1-flashx.description": "سريع ومنخفض التكلفة: معزز بـ Flash لاستدلال فائق السرعة وتزامن أعلى.",
574
+ "glm-zero-preview.description": "GLM-Zero-Preview يقدم استدلالًا معقدًا قويًا، ويتفوق في المنطق، الرياضيات، والبرمجة.",
575
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين ذكاء استثنائي وأداء قابل للتوسع للمهام المعقدة التي تتطلب استجابات واستدلال عالي الجودة.",
576
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم قدرات الجيل التالي، بما في ذلك السرعة الممتازة، استخدام الأدوات المدمجة، التوليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
577
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental هو أحدث نموذج متعدد الوسائط تجريبي من Google مع تحسينات في الجودة مقارنة بالإصدارات السابقة، خاصة في المعرفة العامة، البرمجة، والسياق الطويل.",
578
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite هو إصدار خفيف من Gemini مع تعطيل التفكير افتراضيًا لتحسين زمن الاستجابة والتكلفة، ويمكن تفعيله عبر المعلمات.",
579
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite يقدم ميزات الجيل التالي بما في ذلك السرعة الفائقة، استخدام الأدوات المدمجة، التوليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
580
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash هو نموذج استدلال عالي الأداء من Google للمهام متعددة الوسائط الممتدة.",
581
+ "google/gemini-2.5-flash-image-free.description": "النسخة المجانية من Gemini 2.5 Flash Image مع حصة محدودة للتوليد متعدد الوسائط.",
582
+ "google/gemini-2.5-flash-image-preview.description": "نموذج Gemini 2.5 Flash التجريبي مع دعم توليد الصور.",
583
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) هو نموذج توليد الصور من Google مع دعم المحادثة متعددة الوسائط.",
584
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite هو إصدار خفيف من Gemini 2.5 محسّن لزمن الاستجابة والتكلفة، مناسب لسيناريوهات الإنتاجية العالية.",
585
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم لمهام الاستدلال المتقدم، البرمجة، الرياضيات، والعلوم. يتضمن ميزة \"التفكير\" المدمجة لتقديم استجابات أكثر دقة ومعالجة سياق أدق.\n\nملاحظة: يحتوي هذا النموذج على نسختين — مع التفكير وبدونه. تختلف أسعار الإخراج بشكل كبير حسب ما إذا كان التفكير مفعلاً. إذا اخترت النسخة القياسية (بدون اللاحقة \":thinking\")، سيتجنب النموذج توليد رموز التفكير.\n\nلاستخدام التفكير واستلام رموز التفكير، يجب اختيار النسخة \":thinking\"، والتي تتطلب تكلفة أعلى.\n\nيمكن أيضًا ضبط Gemini 2.5 Flash عبر معلمة \"الحد الأقصى لرموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم لمهام الاستدلال المتقدم، البرمجة، الرياضيات، والعلوم. يتضمن ميزة \"التفكير\" المدمجة لتقديم استجابات أكثر دقة ومعالجة سياق أدق.\n\nملاحظة: يحتوي هذا النموذج على نسختين — مع التفكير وبدونه. تختلف أسعار الإخراج بشكل كبير حسب ما إذا كان التفكير مفعلاً. إذا اخترت النسخة القياسية (بدون اللاحقة \":thinking\"), سيتجنب النموذج توليد رموز التفكير.\n\nلاستخدام التفكير واستلام رموز التفكير، يجب اختيار النسخة \":thinking\"، والتي تتطلب تكلفة أعلى.\n\nيمكن أيضًا ضبط Gemini 2.5 Flash عبر معلمة \"الحد الأقصى لرموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
587
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) هو عائلة نماذج من Google تغطي من زمن الاستجابة المنخفض إلى الاستدلال عالي الأداء.",
588
+ "google/gemini-2.5-pro-free.description": "النسخة المجانية من Gemini 2.5 Pro تقدم حصة محدودة من التوليد متعدد الوسائط طويل السياق، مناسبة للتجارب وسير العمل الخفيف.",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview هو النموذج الأكثر تقدمًا من Google للاستدلال في المشكلات المعقدة في البرمجة، الرياضيات، والعلوم، وتحليل مجموعات البيانات الكبيرة، قواعد الشيفرة، والمستندات ذات السياق الطويل.",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google للاستدلال مع دعم السياق الطويل للمهام المعقدة.",
591
+ "google/gemini-3-pro-image-preview-free.description": "النسخة المجانية من Gemini 3 Pro Image مع حصة محدودة للتوليد متعدد الوسائط.",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google مع دعم المحادثة متعددة الوسائط.",
593
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free يقدم نفس الفهم متعدد الوسائط والاستدلال مثل النسخة القياسية، ولكن مع حدود في الحصة ومعدل الاستخدام، مما يجعله مناسبًا للتجارب والاستخدام منخفض التكرار.",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro هو نموذج الاستدلال متعدد الوسائط من الجيل التالي في عائلة Gemini، يفهم النصوص، الصوت، الصور، والفيديو، ويتعامل مع المهام المعقدة وقواعد الشيفرة الكبيرة.",
566
595
  "meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
567
596
  "meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
568
597
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
@@ -63,4 +63,4 @@
63
63
  "username.title": "بالمناسبة، ماذا يجب أن أُسميك؟",
64
64
  "username.title2": "دعنا نتعرف على بعضنا أولاً!",
65
65
  "username.title3": "هكذا يمكننا التحدث بشكل طبيعي أكثر من الآن فصاعدًا~"
66
- }
66
+ }
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
30
30
  "jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
31
31
  "lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
32
- "lobehub.description": "يستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، ويقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
33
32
  "minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
34
33
  "mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
35
34
  "modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Агент от общността",
135
135
  "cmdk.search.file": "Файл",
136
136
  "cmdk.search.files": "Файлове",
137
+ "cmdk.search.folder": "Папка",
138
+ "cmdk.search.folders": "Папки",
137
139
  "cmdk.search.loading": "Търсене...",
138
140
  "cmdk.search.market": "Общност",
139
141
  "cmdk.search.mcp": "MCP сървър",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Още",
57
57
  "assistants.plugins": "Интегрирани умения",
58
58
  "assistants.recentSubmits": "Последни актуализации",
59
- "assistants.sorts.recommended": "Препоръчани",
60
59
  "assistants.sorts.createdAt": "Наскоро публикувани",
61
60
  "assistants.sorts.identifier": "ID на агента",
62
61
  "assistants.sorts.knowledgeCount": "Библиотеки",
63
62
  "assistants.sorts.myown": "Виж моите агенти",
64
63
  "assistants.sorts.pluginCount": "Умения",
64
+ "assistants.sorts.recommended": "Препоръчани",
65
65
  "assistants.sorts.title": "Име на агента",
66
66
  "assistants.sorts.tokenUsage": "Използване на токени",
67
67
  "assistants.status.archived.reasons.official": "Платформата премахна този агент поради съображения за сигурност, политика или други причини.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Този агент включва библиотеки",
84
84
  "assistants.withPlugin": "Този агент включва умения",
85
85
  "back": "Обратно към откриване",
86
- "category.assistant.discover": "Откриване",
87
86
  "category.assistant.academic": "Академичен",
88
87
  "category.assistant.all": "Всички",
89
88
  "category.assistant.career": "Кариера",
90
89
  "category.assistant.copywriting": "Копирайтинг",
91
90
  "category.assistant.design": "Дизайн",
91
+ "category.assistant.discover": "Откриване",
92
92
  "category.assistant.education": "Образование",
93
93
  "category.assistant.emotions": "Емоции",
94
94
  "category.assistant.entertainment": "Забавление",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
272
272
  "claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
273
273
  "claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, който подобрява уменията си и надминава предишния водещ модел Claude 3 Opus в много бенчмаркове.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентни бенчмаркове.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, предлагащ почти мигновени отговори или разширено мислене с прецизен контрол.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и задачи за агенти.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, отличаващ се със светкавична скорост и разширено мислене.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, превъзхождащ в производителност, интелигентност, плавност и разбиране.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено поетапно мислене с прецизен контрол за потребителите на API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
289
289
  "codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
358
- "deepseek-chat.description": "DeepSeek V3.2 балансира разсъждение и дължина на изхода за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5 и това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворените агенти.",
358
+ "deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и програмни способности. Съчетава общия диалогов модел с мощен кодиращ модел и по-добро съответствие с предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
379
379
  "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок разсъждаващ модел, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 извежда верига от мисли преди крайния отговор за повишена точност.",
382
382
  "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа вход от текст и изображения за висококачествено и силно контролируемо генериране на изображения от подсказки.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ текстови и визуални входове с високо ниво на контрол и качество. Генерира изображения от текстови подсказки.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
480
480
  "fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
482
- "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, завъртане и други.",
483
- "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с отлично визуализиране на китайски текст и разнообразни визуални стилове.",
482
+ "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на китайски и английски текст, както и висококачествени трансформации като смяна на стил и въртене на обекти.",
483
+ "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
484
484
  "flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
485
485
  "flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
486
486
  "flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@@ -491,6 +491,41 @@
491
491
  "flux-pro.description": "Висококласен търговски модел за генериране на изображения с несравнимо качество и разнообразие на изхода.",
492
492
  "flux-schnell.description": "FLUX.1 [schnell] е най-усъвършенстваният отворен модел с малко стъпки, надминаващ подобни конкуренти и дори силни недестилирани модели като Midjourney v6.0 и DALL-E 3 (HD). Фино настроен е да запази разнообразието от предварително обучение, значително подобрявайки визуалното качество, следването на инструкции, вариациите в размер/съотношение, обработката на шрифтове и разнообразието на изхода.",
493
493
  "flux.1-schnell.description": "FLUX.1-schnell е високопроизводителен модел за генериране на изображения с бърз изход в различни стилове.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) осигурява стабилна и настройваема производителност за комплексни задачи.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) предлага силна мултимодална поддръжка за комплексни задачи.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro е високопроизводителен AI модел на Google, проектиран за мащабиране на широк спектър от задачи.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 е ефективен мултимодален модел за мащабиране на приложения.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 е ефективен мултимодален модел, създаден за широко внедряване.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 е най-новият експериментален модел с значителни подобрения в текстови и мултимодални случаи на употреба.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B е ефективен мултимодален модел, създаден за широко внедряване.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B е ефективен мултимодален модел за мащабиране на приложения.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 предлага оптимизирана мултимодална обработка за комплексни задачи.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash е най-новият мултимодален AI модел на Google с бърза обработка, поддържащ текстови, визуални и видео входове за ефективно мащабиране на задачи.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 е мащабируемо мултимодално AI решение за комплексни задачи.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 е най-новият модел, готов за продукция, с по-високо качество на изхода, особено при математика, дълъг контекст и визуални задачи.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 осигурява силна мултимодална обработка с по-голяма гъвкавост за разработка на приложения.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 прилага последните оптимизации за по-ефективна мултимодална обработка.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддържа до 2 милиона токена, идеален среден по размер мултимодален модел за комплексни задачи.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Експериментален модел Gemini 2.0 Flash с поддръжка за генериране на изображения.",
511
+ "gemini-2.0-flash-exp.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
512
+ "gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
513
+ "gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview е най-изгодният модел на Google с пълни възможности.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash е най-изгодният модел на Google с пълни възможности.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
494
529
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
495
530
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
496
531
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -63,4 +63,4 @@
63
63
  "username.title": "Между другото, как да ви наричам?",
64
64
  "username.title2": "Нека първо се опознаем!",
65
65
  "username.title3": "Така ще можем да си говорим по-естествено оттук нататък~"
66
- }
66
+ }
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
30
30
  "jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
31
31
  "lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
32
- "lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
33
32
  "minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
34
33
  "mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
35
34
  "modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Community-Agent",
135
135
  "cmdk.search.file": "Datei",
136
136
  "cmdk.search.files": "Dateien",
137
+ "cmdk.search.folder": "Ordner",
138
+ "cmdk.search.folders": "Ordner",
137
139
  "cmdk.search.loading": "Suche läuft...",
138
140
  "cmdk.search.market": "Community",
139
141
  "cmdk.search.mcp": "MCP-Server",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Mehr",
57
57
  "assistants.plugins": "Integrierte Fähigkeiten",
58
58
  "assistants.recentSubmits": "Kürzlich aktualisiert",
59
- "assistants.sorts.recommended": "Empfohlen",
60
59
  "assistants.sorts.createdAt": "Kürzlich veröffentlicht",
61
60
  "assistants.sorts.identifier": "Agenten-ID",
62
61
  "assistants.sorts.knowledgeCount": "Bibliotheken",
63
62
  "assistants.sorts.myown": "Meine Agenten anzeigen",
64
63
  "assistants.sorts.pluginCount": "Fähigkeiten",
64
+ "assistants.sorts.recommended": "Empfohlen",
65
65
  "assistants.sorts.title": "Agentenname",
66
66
  "assistants.sorts.tokenUsage": "Token-Nutzung",
67
67
  "assistants.status.archived.reasons.official": "Die Plattform hat diesen Agenten aus Sicherheits-, Richtlinien- oder anderen Gründen entfernt.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Dieser Agent enthält Bibliotheken",
84
84
  "assistants.withPlugin": "Dieser Agent enthält Fähigkeiten",
85
85
  "back": "Zurück zur Entdeckung",
86
- "category.assistant.discover": "Entdecken",
87
86
  "category.assistant.academic": "Akademisch",
88
87
  "category.assistant.all": "Alle",
89
88
  "category.assistant.career": "Karriere",
90
89
  "category.assistant.copywriting": "Texterstellung",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Entdecken",
92
92
  "category.assistant.education": "Bildung",
93
93
  "category.assistant.emotions": "Emotionen",
94
94
  "category.assistant.entertainment": "Unterhaltung",