@lobehub/lobehub 2.0.0-next.108 → 2.0.0-next.109

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -2,6 +2,39 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 2.0.0-next.109](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.108...v2.0.0-next.109)
6
+
7
+ <sup>Released on **2025-11-24**</sup>
8
+
9
+ #### 🐛 Bug Fixes
10
+
11
+ - **misc**: Fixed the knowledge files cant open error.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Update i18n.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### What's fixed
23
+
24
+ - **misc**: Fixed the knowledge files cant open error, closes [#10386](https://github.com/lobehub/lobe-chat/issues/10386) ([8104c77](https://github.com/lobehub/lobe-chat/commit/8104c77))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Update i18n, closes [#10368](https://github.com/lobehub/lobe-chat/issues/10368) ([ed707af](https://github.com/lobehub/lobe-chat/commit/ed707af))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
5
38
  ## [Version 2.0.0-next.108](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.107...v2.0.0-next.108)
6
39
 
7
40
  <sup>Released on **2025-11-24**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,16 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "fixes": [
5
+ "Fixed the knowledge files cant open error."
6
+ ],
7
+ "improvements": [
8
+ "Update i18n."
9
+ ]
10
+ },
11
+ "date": "2025-11-24",
12
+ "version": "2.0.0-next.109"
13
+ },
2
14
  {
3
15
  "children": {
4
16
  "fixes": [
@@ -1715,6 +1715,9 @@
1715
1715
  "google/gemini-2.5-pro-preview": {
1716
1716
  "description": "معاينة Gemini 2.5 Pro هي أحدث نموذج تفكيري من Google، قادر على استنتاج المشكلات المعقدة في مجالات البرمجة والرياضيات والعلوم والتكنولوجيا والهندسة والرياضيات (STEM)، بالإضافة إلى استخدام سياق طويل لتحليل مجموعات البيانات الكبيرة، وقواعد الشيفرة، والوثائق."
1717
1717
  },
1718
+ "google/gemini-3-pro-image-preview": {
1719
+ "description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google، ويدعم المحادثات متعددة الوسائط."
1720
+ },
1718
1721
  "google/gemini-3-pro-image-preview-free": {
1719
1722
  "description": "الإصدار المجاني من Gemini 3 Pro Image، يدعم توليد الوسائط المتعددة بحدود استخدام معينة."
1720
1723
  },
@@ -2777,14 +2780,51 @@
2777
2780
  "openai/gpt-4-turbo": {
2778
2781
  "description": "gpt-4-turbo من OpenAI يمتلك معرفة عامة واسعة وخبرة ميدانية، مما يمكنه من اتباع تعليمات اللغة الطبيعية المعقدة وحل المشكلات بدقة. تاريخ المعرفة حتى أبريل 2023، ونافذة سياق تصل إلى 128,000 رمز."
2779
2782
  },
2780
- "openai/gpt-4.1": {},
2781
- "openai/gpt-4.1-mini": {},
2782
- "openai/gpt-4.1-nano": {},
2783
- "openai/gpt-4o": {},
2784
- "openai/gpt-4o-mini": {},
2785
- "openai/gpt-5": {},
2786
- "openai/gpt-5-mini": {},
2787
- "openai/gpt-5-nano": {},
2783
+ "openai/gpt-4.1": {
2784
+ "description": "سلسلة GPT-4.1 توفر سياقًا أوسع وقدرات أقوى في الهندسة والاستدلال."
2785
+ },
2786
+ "openai/gpt-4.1-mini": {
2787
+ "description": "GPT-4.1 Mini يقدم زمن استجابة أقل وتكلفة أفضل، مناسب للمهام ذات السياق المتوسط."
2788
+ },
2789
+ "openai/gpt-4.1-nano": {
2790
+ "description": "GPT-4.1 Nano هو خيار منخفض التكلفة وزمن استجابة منخفض جدًا، مناسب للمحادثات القصيرة المتكررة أو سيناريوهات التصنيف."
2791
+ },
2792
+ "openai/gpt-4o": {
2793
+ "description": "سلسلة GPT-4o هي نموذج Omni من OpenAI، يدعم إدخال نصوص + صور وإخراج نصي."
2794
+ },
2795
+ "openai/gpt-4o-mini": {
2796
+ "description": "GPT-4o-mini هو النسخة الصغيرة والسريعة من GPT-4o، مناسب لسيناريوهات الوسائط المختلطة منخفضة التأخير."
2797
+ },
2798
+ "openai/gpt-5": {
2799
+ "description": "GPT-5 هو نموذج عالي الأداء من OpenAI، مناسب لمجموعة واسعة من مهام الإنتاج والبحث."
2800
+ },
2801
+ "openai/gpt-5-chat": {
2802
+ "description": "GPT-5 Chat هو إصدار فرعي من GPT-5 مُحسَّن لسيناريوهات المحادثة، يقلل من التأخير لتحسين تجربة التفاعل."
2803
+ },
2804
+ "openai/gpt-5-codex": {
2805
+ "description": "GPT-5-Codex هو إصدار مُحسَّن من GPT-5 مخصص لسيناريوهات البرمجة، مناسب لسير عمل البرمجة على نطاق واسع."
2806
+ },
2807
+ "openai/gpt-5-mini": {
2808
+ "description": "GPT-5 Mini هو النسخة المصغرة من عائلة GPT-5، مناسب للسيناريوهات منخفضة التكلفة وزمن الاستجابة."
2809
+ },
2810
+ "openai/gpt-5-nano": {
2811
+ "description": "GPT-5 Nano هو النسخة فائقة الصغر من العائلة، مناسب للسيناريوهات التي تتطلب تكلفة وزمن استجابة منخفضين للغاية."
2812
+ },
2813
+ "openai/gpt-5-pro": {
2814
+ "description": "GPT-5 Pro هو النموذج الرائد من OpenAI، يوفر قدرات استدلال وتوليد أكواد متقدمة ووظائف على مستوى المؤسسات، ويدعم التوجيه أثناء الاختبار واستراتيجيات أمان أكثر صرامة."
2815
+ },
2816
+ "openai/gpt-5.1": {
2817
+ "description": "GPT-5.1 هو أحدث نموذج رائد في سلسلة GPT-5، يتميز بتحسينات ملحوظة في الاستدلال العام، اتباع التعليمات، وطبيعية الحوار، ومناسب لمجموعة واسعة من المهام."
2818
+ },
2819
+ "openai/gpt-5.1-chat": {
2820
+ "description": "GPT-5.1 Chat هو عضو خفيف من عائلة GPT-5.1، مُحسَّن للمحادثات منخفضة التأخير مع الحفاظ على قدرات استدلال وتنفيذ تعليمات قوية."
2821
+ },
2822
+ "openai/gpt-5.1-codex": {
2823
+ "description": "GPT-5.1-Codex هو إصدار مُحسَّن من GPT-5.1 مخصص لهندسة البرمجيات وسير عمل البرمجة، مناسب لإعادة هيكلة واسعة النطاق، تصحيح الأخطاء المعقدة، ومهام البرمجة الذاتية طويلة الأمد."
2824
+ },
2825
+ "openai/gpt-5.1-codex-mini": {
2826
+ "description": "GPT-5.1-Codex-Mini هو النسخة الصغيرة والمعجلة من GPT-5.1-Codex، أكثر ملاءمة لسيناريوهات البرمجة الحساسة للتكلفة والتأخير."
2827
+ },
2788
2828
  "openai/gpt-oss-120b": {
2789
2829
  "description": "نموذج لغة كبير عام عالي الكفاءة، يتمتع بقدرات استدلال قوية وقابلة للتحكم."
2790
2830
  },
@@ -2809,7 +2849,9 @@
2809
2849
  "openai/o3-mini-high": {
2810
2850
  "description": "o3-mini عالي المستوى من حيث الاستدلال، يقدم ذكاءً عاليًا بنفس تكلفة وأهداف التأخير مثل o1-mini."
2811
2851
  },
2812
- "openai/o4-mini": {},
2852
+ "openai/o4-mini": {
2853
+ "description": "OpenAI o4-mini هو نموذج استدلال صغير وفعال من OpenAI، مناسب لسيناريوهات منخفضة التأخير."
2854
+ },
2813
2855
  "openai/o4-mini-high": {
2814
2856
  "description": "o4-mini إصدار عالي من حيث مستوى الاستدلال، تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
2815
2857
  },
@@ -3011,13 +3053,21 @@
3011
3053
  "qwen/qwen2.5-coder-7b-instruct": {
3012
3054
  "description": "نموذج قوي للبرمجة متوسطة الحجم، يدعم طول سياق يصل إلى 32K، بارع في البرمجة متعددة اللغات."
3013
3055
  },
3014
- "qwen/qwen3-14b": {},
3056
+ "qwen/qwen3-14b": {
3057
+ "description": "Qwen3-14B هو إصدار 14B من سلسلة Qwen، مناسب للاستدلال العام وسيناريوهات المحادثة."
3058
+ },
3015
3059
  "qwen/qwen3-14b:free": {
3016
3060
  "description": "Qwen3-14B هو نموذج لغوي سببي مكثف يحتوي على 14.8 مليار معلمة، مصمم للاستدلال المعقد والحوار الفعال. يدعم التبديل بسلاسة بين نمط \"التفكير\" المستخدم في الرياضيات، والبرمجة، والاستدلال المنطقي، ونمط \"غير التفكير\" المستخدم في الحوار العام. تم ضبط هذا النموذج ليكون مناسبًا للامتثال للتعليمات، واستخدام أدوات الوكلاء، والكتابة الإبداعية، واستخدامه عبر أكثر من 100 لغة ولهجة. يدعم بشكل أصلي معالجة 32K رمز، ويمكن توسيعها باستخدام التمديد القائم على YaRN إلى 131K رمز."
3017
3061
  },
3018
3062
  "qwen/qwen3-235b-a22b": {
3019
3063
  "description": "Qwen3-235B-A22B هو نموذج مختلط خبير (MoE) يحتوي على 235 مليار معلمة تم تطويره بواسطة Qwen، حيث يتم تنشيط 22 مليار معلمة في كل تمرير للأمام. يدعم التبديل بسلاسة بين نمط \"التفكير\" المستخدم في الاستدلال المعقد، والرياضيات، ومهام البرمجة، ونمط \"غير التفكير\" المستخدم في الحوار العام. يظهر هذا النموذج قدرات استدلال قوية، ودعمًا للغات المتعددة (أكثر من 100 لغة ولهجة)، وقدرات متقدمة في الامتثال للتعليمات واستدعاء أدوات الوكلاء. يدعم بشكل أصلي معالجة نافذة سياق من 32K رمز، ويمكن توسيعها باستخدام التمديد القائم على YaRN إلى 131K رمز."
3020
3064
  },
3065
+ "qwen/qwen3-235b-a22b-2507": {
3066
+ "description": "Qwen3-235B-A22B-Instruct-2507 هو إصدار Instruct من سلسلة Qwen3، يجمع بين دعم التعليمات متعددة اللغات وسيناريوهات السياق الطويل."
3067
+ },
3068
+ "qwen/qwen3-235b-a22b-thinking-2507": {
3069
+ "description": "Qwen3-235B-A22B-Thinking-2507 هو إصدار Thinking من Qwen3، مُعزز لمهام الرياضيات المعقدة والاستدلال."
3070
+ },
3021
3071
  "qwen/qwen3-235b-a22b:free": {
3022
3072
  "description": "Qwen3-235B-A22B هو نموذج مختلط خبير (MoE) يحتوي على 235 مليار معلمة تم تطويره بواسطة Qwen، حيث يتم تنشيط 22 مليار معلمة في كل تمرير للأمام. يدعم التبديل بسلاسة بين نمط \"التفكير\" المستخدم في الاستدلال المعقد، والرياضيات، ومهام البرمجة، ونمط \"غير التفكير\" المستخدم في الحوار العام. يظهر هذا النموذج قدرات استدلال قوية، ودعمًا للغات المتعددة (أكثر من 100 لغة ولهجة)، وقدرات متقدمة في الامتثال للتعليمات واستدعاء أدوات الوكلاء. يدعم بشكل أصلي معالجة نافذة سياق من 32K رمز، ويمكن توسيعها باستخدام التمديد القائم على YaRN إلى 131K رمز."
3023
3073
  },
@@ -3036,6 +3086,21 @@
3036
3086
  "qwen/qwen3-8b:free": {
3037
3087
  "description": "Qwen3-8B هو نموذج لغوي سببي مكثف يحتوي على 8.2 مليار معلمة، مصمم للمهام التي تتطلب استدلالًا مكثفًا والحوار الفعال. يدعم التبديل بسلاسة بين نمط \"التفكير\" المستخدم في الرياضيات والترميز والاستدلال المنطقي، ونمط \"غير التفكير\" المستخدم في الحوار العام. تم ضبط هذا النموذج ليكون مناسبًا للامتثال للتعليمات، ودمج الوكلاء، والكتابة الإبداعية، واستخدامه عبر أكثر من 100 لغة ولهجة. يدعم بشكل أصلي نافذة سياق من 32K رمز، ويمكن توسيعها إلى 131K رمز عبر YaRN."
3038
3088
  },
3089
+ "qwen/qwen3-coder": {
3090
+ "description": "Qwen3-Coder هو جزء من عائلة مولدات الأكواد في Qwen3، بارع في فهم وتوليد الأكواد داخل المستندات الطويلة."
3091
+ },
3092
+ "qwen/qwen3-coder-plus": {
3093
+ "description": "Qwen3-Coder-Plus هو نموذج وكيل برمجي مُحسَّن خصيصًا من سلسلة Qwen، يدعم استدعاء أدوات أكثر تعقيدًا وجلسات طويلة الأمد."
3094
+ },
3095
+ "qwen/qwen3-max": {
3096
+ "description": "Qwen3 Max هو النموذج المتقدم من سلسلة Qwen3، مناسب للاستدلال متعدد اللغات وتكامل الأدوات."
3097
+ },
3098
+ "qwen/qwen3-max-preview": {
3099
+ "description": "Qwen3 Max (معاينة) هو إصدار Max من سلسلة Qwen، موجه للاستدلال المتقدم وتكامل الأدوات (نسخة تجريبية)."
3100
+ },
3101
+ "qwen/qwen3-vl-plus": {
3102
+ "description": "Qwen3 VL-Plus هو الإصدار المعزز بصريًا من Qwen3، يعزز قدرات الاستدلال متعدد الوسائط ومعالجة الفيديو."
3103
+ },
3039
3104
  "qwen2": {
3040
3105
  "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
3041
3106
  },
@@ -3411,6 +3476,9 @@
3411
3476
  "vercel/v0-1.5-md": {
3412
3477
  "description": "الوصول إلى النموذج خلف v0 لتوليد، إصلاح، وتحسين تطبيقات الويب الحديثة، مع استدلال مخصص للأطر المعينة ومعرفة حديثة."
3413
3478
  },
3479
+ "volcengine/doubao-seed-code": {
3480
+ "description": "Doubao-Seed-Code هو نموذج كبير من محرك Byte Volcano مُحسَّن لبرمجة الوكلاء (Agentic Programming)، ويؤدي أداءً ممتازًا في معايير متعددة للبرمجة والوكلاء، ويدعم سياقًا يصل إلى 256K."
3481
+ },
3414
3482
  "wan2.2-t2i-flash": {
3415
3483
  "description": "نسخة Wanxiang 2.2 فائقة السرعة، أحدث نموذج حاليًا. تم تحسين الإبداع، الاستقرار، والواقعية بشكل شامل، مع سرعة توليد عالية وقيمة ممتازة مقابل التكلفة."
3416
3484
  },
@@ -3438,8 +3506,24 @@
3438
3506
  "wizardlm2:8x22b": {
3439
3507
  "description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في الحوار المعقد، واللغات المتعددة، والاستدلال، والمساعدين الذكيين."
3440
3508
  },
3441
- "x-ai/grok-4-fast": {},
3442
- "x-ai/grok-code-fast-1": {},
3509
+ "x-ai/grok-4": {
3510
+ "description": "Grok 4 هو النموذج الرائد من xAI، يوفر قدرات استدلال قوية ودعمًا متعدد الوسائط."
3511
+ },
3512
+ "x-ai/grok-4-fast": {
3513
+ "description": "Grok 4 Fast هو نموذج عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2M)، مناسب للسيناريوهات التي تتطلب تزامنًا عاليًا وسياقًا طويلًا."
3514
+ },
3515
+ "x-ai/grok-4-fast-non-reasoning": {
3516
+ "description": "Grok 4 Fast (بدون استدلال) هو نموذج متعدد الوسائط عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2M)، موجه للسيناريوهات الحساسة للتأخير والتكلفة والتي لا تتطلب تفعيل الاستدلال داخل النموذج. يتوفر بجانب إصدار Grok 4 Fast مع الاستدلال، ويمكن تفعيل الاستدلال عند الحاجة عبر معامل reasoning enable في واجهة API. قد يتم استخدام المطالبات والإكمالات من قبل xAI أو OpenRouter لتحسين النماذج المستقبلية."
3517
+ },
3518
+ "x-ai/grok-4.1-fast": {
3519
+ "description": "Grok 4.1 Fast هو نموذج عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2M)، مناسب للسيناريوهات التي تتطلب تزامنًا عاليًا وسياقًا طويلًا."
3520
+ },
3521
+ "x-ai/grok-4.1-fast-non-reasoning": {
3522
+ "description": "Grok 4.1 Fast (بدون استدلال) هو نموذج متعدد الوسائط عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2M)، موجه للسيناريوهات الحساسة للتأخير والتكلفة والتي لا تتطلب تفعيل الاستدلال داخل النموذج. يتوفر بجانب إصدار Grok 4.1 Fast مع الاستدلال، ويمكن تفعيل الاستدلال عند الحاجة عبر معامل reasoning enable في واجهة API. قد يتم استخدام المطالبات والإكمالات من قبل xAI أو OpenRouter لتحسين النماذج المستقبلية."
3523
+ },
3524
+ "x-ai/grok-code-fast-1": {
3525
+ "description": "Grok Code Fast 1 هو نموذج سريع للبرمجة من xAI، ينتج أكواد قابلة للقراءة ومتوافقة مع متطلبات الهندسة."
3526
+ },
3443
3527
  "x1": {
3444
3528
  "description": "سيتم ترقية نموذج Spark X1 بشكل أكبر، حيث ستحقق المهام العامة مثل الاستدلال، وتوليد النصوص، وفهم اللغة نتائج تتماشى مع OpenAI o1 و DeepSeek R1."
3445
3529
  },
@@ -3500,7 +3584,15 @@
3500
3584
  "yi-vision-v2": {
3501
3585
  "description": "نموذج مهام بصرية معقدة، يوفر فهمًا عالي الأداء وقدرات تحليلية بناءً على صور متعددة."
3502
3586
  },
3503
- "z-ai/glm-4.6": {},
3587
+ "z-ai/glm-4.5": {
3588
+ "description": "GLM 4.5 هو النموذج الرائد من Z.AI، يدعم أوضاع استدلال هجينة ومُحسَّن للمهام الهندسية وسياقات طويلة."
3589
+ },
3590
+ "z-ai/glm-4.5-air": {
3591
+ "description": "GLM 4.5 Air هو النسخة الخفيفة من GLM 4.5، مناسب للسيناريوهات الحساسة للتكلفة مع الحفاظ على قدرات استدلال قوية."
3592
+ },
3593
+ "z-ai/glm-4.6": {
3594
+ "description": "GLM 4.6 هو النموذج الرائد من Z.AI، يعزز طول السياق وقدرات الترميز."
3595
+ },
3504
3596
  "zai-org/GLM-4.5": {
3505
3597
  "description": "GLM-4.5 هو نموذج أساسي مصمم لتطبيقات الوكلاء الذكية، يستخدم بنية Mixture-of-Experts (MoE). تم تحسينه بعمق في مجالات استدعاء الأدوات، تصفح الويب، هندسة البرمجيات، وبرمجة الواجهة الأمامية، ويدعم التكامل السلس مع وكلاء الكود مثل Claude Code وRoo Code. يستخدم وضع استدلال مختلط ليتكيف مع سيناريوهات الاستدلال المعقدة والاستخدام اليومي."
3506
3598
  },
@@ -3521,5 +3613,8 @@
3521
3613
  },
3522
3614
  "zai/glm-4.5v": {
3523
3615
  "description": "GLM-4.5V مبني على نموذج GLM-4.5-Air الأساسي، يرث التقنيات المثبتة من GLM-4.1V-Thinking، ويوسعها بفعالية من خلال بنية MoE القوية التي تضم 106 مليار معلمة."
3616
+ },
3617
+ "zenmux/auto": {
3618
+ "description": "ميزة التوجيه التلقائي من ZenMux تختار تلقائيًا أفضل نموذج من حيث الأداء والتكلفة من بين النماذج المدعومة بناءً على محتوى طلبك."
3524
3619
  }
3525
3620
  }
@@ -1715,6 +1715,9 @@
1715
1715
  "google/gemini-2.5-pro-preview": {
1716
1716
  "description": "Gemini 2.5 Pro Preview е най-усъвършенстваният мисловен модел на Google, способен да извършва разсъждения върху сложни проблеми в областта на кодирането, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
1717
1717
  },
1718
+ "google/gemini-3-pro-image-preview": {
1719
+ "description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който поддържа мултимодален диалог."
1720
+ },
1718
1721
  "google/gemini-3-pro-image-preview-free": {
1719
1722
  "description": "Безплатна версия на Gemini 3 Pro Image, поддържа ограничено количество мултимодално генериране."
1720
1723
  },
@@ -2198,6 +2201,9 @@
2198
2201
  "kimi-thinking-preview": {
2199
2202
  "description": "Моделът kimi-thinking-preview, предоставен от „Тъмната страна на Луната“, е мултимодален мисловен модел с възможности за мултимодално и общо разсъждение, който е експерт в дълбокото разсъждение и помага за решаването на по-сложни задачи."
2200
2203
  },
2204
+ "kuaishou/kat-coder-pro-v1": {
2205
+ "description": "KAT-Coder-Pro-V1 (временно безплатен) е фокусиран върху разбиране на код и автоматизирано програмиране, предназначен за ефективни задачи с програмен агент."
2206
+ },
2201
2207
  "learnlm-1.5-pro-experimental": {
2202
2208
  "description": "LearnLM е експериментален езиков модел, специфичен за задачи, обучен да отговаря на принципите на научното обучение, способен да следва системни инструкции в учебни и обучителни сценарии, да действа като експертен ментор и др."
2203
2209
  },
@@ -2528,7 +2534,9 @@
2528
2534
  "minimax-m2": {
2529
2535
  "description": "MiniMax M2 е ефективен голям езиков модел, създаден специално за кодиране и работни процеси с агенти."
2530
2536
  },
2531
- "minimax/minimax-m2": {},
2537
+ "minimax/minimax-m2": {
2538
+ "description": "MiniMax-M2 е високоефективен модел с отлично представяне при кодиране и агентски задачи, подходящ за различни инженерни приложения."
2539
+ },
2532
2540
  "minimaxai/minimax-m2": {
2533
2541
  "description": "MiniMax-M2 е компактен, бърз и икономичен хибриден експертен (MoE) модел с общо 230 милиарда параметъра и 10 милиарда активни параметъра, създаден за постигане на върхова производителност при кодиране и задачи, свързани с интелигентни агенти, като същевременно поддържа силен общ интелект. Моделът се отличава с отлична работа при редактиране на множество файлове, затворен цикъл кодиране-изпълнение-поправка, тестване и валидиране на поправки, както и при сложни дълговерижни инструментални процеси, което го прави идеален избор за работния процес на разработчиците."
2534
2542
  },
@@ -2676,10 +2684,21 @@
2676
2684
  "moonshotai/kimi-k2": {
2677
2685
  "description": "Kimi K2 е голям смесен експертен (MoE) езиков модел с 1 трилион общи параметри и 32 милиарда активни параметри на преден проход, разработен от Moonshot AI. Оптимизиран е за агентски способности, включително усъвършенствано използване на инструменти, разсъждения и синтез на код."
2678
2686
  },
2679
- "moonshotai/kimi-k2-0905": {},
2687
+ "moonshotai/kimi-k2-0711": {
2688
+ "description": "Kimi K2 0711 е Instruct версия от серията Kimi, подходяща за висококачествено програмиране и използване на инструменти."
2689
+ },
2690
+ "moonshotai/kimi-k2-0905": {
2691
+ "description": "Kimi K2 0905 е актуализация от серията Kimi, подобряваща контекстуалната обработка и логическите възможности, оптимизирана за кодиране."
2692
+ },
2680
2693
  "moonshotai/kimi-k2-instruct-0905": {
2681
2694
  "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2682
2695
  },
2696
+ "moonshotai/kimi-k2-thinking": {
2697
+ "description": "Kimi K2 Thinking е модел за дълбоко разсъждение, оптимизиран от Moonshot, с универсални способности на агент."
2698
+ },
2699
+ "moonshotai/kimi-k2-thinking-turbo": {
2700
+ "description": "Kimi K2 Thinking Turbo е ускорена версия на Kimi K2 Thinking, която запазва дълбоките логически възможности при значително по-ниска латентност."
2701
+ },
2683
2702
  "morph/morph-v3-fast": {
2684
2703
  "description": "Morph предоставя специализиран AI модел, който прилага препоръчаните от водещи модели (като Claude или GPT-4o) промени в кода към съществуващите ви файлове БЪРЗО - над 4500+ токена в секунда. Той служи като последна стъпка в AI кодовия работен поток. Поддържа 16k входни и 16k изходни токена."
2685
2704
  },
@@ -2761,14 +2780,51 @@
2761
2780
  "openai/gpt-4-turbo": {
2762
2781
  "description": "gpt-4-turbo от OpenAI притежава обширни общи знания и експертиза в различни области, което му позволява да следва сложни инструкции на естествен език и да решава точно трудни проблеми. Знанията му са актуални до април 2023 г., а контекстният прозорец е 128 000 токена."
2763
2782
  },
2764
- "openai/gpt-4.1": {},
2765
- "openai/gpt-4.1-mini": {},
2766
- "openai/gpt-4.1-nano": {},
2767
- "openai/gpt-4o": {},
2768
- "openai/gpt-4o-mini": {},
2769
- "openai/gpt-5": {},
2770
- "openai/gpt-5-mini": {},
2771
- "openai/gpt-5-nano": {},
2783
+ "openai/gpt-4.1": {
2784
+ "description": "Серията GPT-4.1 предлага по-голям контекст и по-силни инженерни и логически способности."
2785
+ },
2786
+ "openai/gpt-4.1-mini": {
2787
+ "description": "GPT-4.1 Mini предлага по-ниска латентност и по-добро съотношение цена/качество, подходящ за средни по дължина контексти."
2788
+ },
2789
+ "openai/gpt-4.1-nano": {
2790
+ "description": "GPT-4.1 Nano е изключително икономичен и с ниска латентност, подходящ за чести кратки диалози или класификационни задачи."
2791
+ },
2792
+ "openai/gpt-4o": {
2793
+ "description": "Серията GPT-4o е Omni модел на OpenAI, поддържащ вход от текст + изображение и изход в текстов формат."
2794
+ },
2795
+ "openai/gpt-4o-mini": {
2796
+ "description": "GPT-4o-mini е бърза и компактна версия на GPT-4o, подходяща за нисколатентни мултимодални сценарии."
2797
+ },
2798
+ "openai/gpt-5": {
2799
+ "description": "GPT-5 е високопроизводителен модел на OpenAI, подходящ за широк спектър от производствени и изследователски задачи."
2800
+ },
2801
+ "openai/gpt-5-chat": {
2802
+ "description": "GPT-5 Chat е подмодел на GPT-5, оптимизиран за диалогови сценарии с по-ниска латентност и по-добро взаимодействие."
2803
+ },
2804
+ "openai/gpt-5-codex": {
2805
+ "description": "GPT-5-Codex е вариант на GPT-5, допълнително оптимизиран за програмиране, подходящ за мащабни работни потоци с код."
2806
+ },
2807
+ "openai/gpt-5-mini": {
2808
+ "description": "GPT-5 Mini е олекотена версия от семейството GPT-5, предназначена за нисколатентни и нискобюджетни приложения."
2809
+ },
2810
+ "openai/gpt-5-nano": {
2811
+ "description": "GPT-5 Nano е ултракомпактна версия от семейството, подходяща за сценарии с изключително високи изисквания към разходи и латентност."
2812
+ },
2813
+ "openai/gpt-5-pro": {
2814
+ "description": "GPT-5 Pro е флагманският модел на OpenAI, предлагащ усъвършенствано разсъждение, генериране на код и корпоративни функции, с поддръжка на маршрутизиране при тестване и стриктни политики за сигурност."
2815
+ },
2816
+ "openai/gpt-5.1": {
2817
+ "description": "GPT-5.1 е най-новият флагмански модел от серията GPT-5, с значителни подобрения в общото разсъждение, следване на инструкции и естественост на диалога, подходящ за широк спектър от задачи."
2818
+ },
2819
+ "openai/gpt-5.1-chat": {
2820
+ "description": "GPT-5.1 Chat е лек член на семейството GPT-5.1, оптимизиран за диалози с ниска латентност, като същевременно запазва силни логически и изпълнителни способности."
2821
+ },
2822
+ "openai/gpt-5.1-codex": {
2823
+ "description": "GPT-5.1-Codex е вариант на GPT-5.1, оптимизиран за софтуерно инженерство и работни потоци с код, подходящ за мащабни рефакторинги, сложна отстраняване на грешки и дългосрочно автономно кодиране."
2824
+ },
2825
+ "openai/gpt-5.1-codex-mini": {
2826
+ "description": "GPT-5.1-Codex-Mini е компактна и ускорена версия на GPT-5.1-Codex, по-подходяща за кодиране в среди, чувствителни към латентност и разходи."
2827
+ },
2772
2828
  "openai/gpt-oss-120b": {
2773
2829
  "description": "Изключително способен универсален голям езиков модел с мощни и контролируеми способности за разсъждение."
2774
2830
  },
@@ -2793,7 +2849,9 @@
2793
2849
  "openai/o3-mini-high": {
2794
2850
  "description": "o3-mini high е версия с високо ниво на разсъждение, която предлага висока интелигентност при същите разходи и цели за закъснение като o1-mini."
2795
2851
  },
2796
- "openai/o4-mini": {},
2852
+ "openai/o4-mini": {
2853
+ "description": "OpenAI o4-mini е компактен и ефективен логически модел, подходящ за нисколатентни приложения."
2854
+ },
2797
2855
  "openai/o4-mini-high": {
2798
2856
  "description": "o4-mini версия с високо ниво на извеждане, оптимизирана за бързо и ефективно извеждане, показваща изключителна ефективност и производителност в задачи по кодиране и визуализация."
2799
2857
  },
@@ -2995,13 +3053,21 @@
2995
3053
  "qwen/qwen2.5-coder-7b-instruct": {
2996
3054
  "description": "Мощен среден модел за код, поддържащ 32K дължина на контекста, специализиран в многоезично програмиране."
2997
3055
  },
2998
- "qwen/qwen3-14b": {},
3056
+ "qwen/qwen3-14b": {
3057
+ "description": "Qwen3-14B е 14B версия от серията Qwen, подходяща за стандартни логически и диалогови задачи."
3058
+ },
2999
3059
  "qwen/qwen3-14b:free": {
3000
3060
  "description": "Qwen3-14B е плътен езиков модел с 14.8 милиарда параметри от серията Qwen3, проектиран за сложни разсъждения и ефективен диалог. Той поддържа безпроблемно преминаване между режим на \"разсъждение\" за математика, програмиране и логическо разсъждение и режим на \"неразсъждение\" за общи разговори. Моделът е фино настроен за следване на инструкции, използване на инструменти за агенти, креативно писане и многоезични задачи на над 100 езика и диалекта. Той нативно обработва контекст от 32K токена и може да бъде разширен до 131K токена с помощта на разширение, базирано на YaRN."
3001
3061
  },
3002
3062
  "qwen/qwen3-235b-a22b": {
3003
3063
  "description": "Qwen3-235B-A22B е модел с 235B параметри, разработен от Qwen, с експертна смесена (MoE) архитектура, активираща 22B параметри при всяко напредване. Той поддържа безпроблемно преминаване между режим на \"разсъждение\" за сложни разсъждения, математика и кодиране и режим на \"неразсъждение\" за ефективен общ диалог. Моделът демонстрира силни способности за разсъждение, многоезична поддръжка (над 100 езика и диалекта), напреднало следване на инструкции и способности за извикване на инструменти за агенти. Той нативно обработва контекстен прозорец от 32K токена и може да бъде разширен до 131K токена с помощта на разширение, базирано на YaRN."
3004
3064
  },
3065
+ "qwen/qwen3-235b-a22b-2507": {
3066
+ "description": "Qwen3-235B-A22B-Instruct-2507 е Instruct версия от серията Qwen3, съчетаваща многоезични инструкции и дълъг контекст."
3067
+ },
3068
+ "qwen/qwen3-235b-a22b-thinking-2507": {
3069
+ "description": "Qwen3-235B-A22B-Thinking-2507 е Thinking вариант от Qwen3, подсилен за сложни математически и логически задачи."
3070
+ },
3005
3071
  "qwen/qwen3-235b-a22b:free": {
3006
3072
  "description": "Qwen3-235B-A22B е модел с 235B параметри, разработен от Qwen, с експертна смесена (MoE) архитектура, активираща 22B параметри при всяко напредване. Той поддържа безпроблемно преминаване между режим на \"разсъждение\" за сложни разсъждения, математика и кодиране и режим на \"неразсъждение\" за ефективен общ диалог. Моделът демонстрира силни способности за разсъждение, многоезична поддръжка (над 100 езика и диалекта), напреднало следване на инструкции и способности за извикване на инструменти за агенти. Той нативно обработва контекстен прозорец от 32K токена и може да бъде разширен до 131K токена с помощта на разширение, базирано на YaRN."
3007
3073
  },
@@ -3020,6 +3086,21 @@
3020
3086
  "qwen/qwen3-8b:free": {
3021
3087
  "description": "Qwen3-8B е плътен езиков модел с 8.2 милиарда параметри от серията Qwen3, проектиран за задачи с интензивно разсъждение и ефективен диалог. Той поддържа безпроблемно преминаване между режим на \"разсъждение\" за математика, програмиране и логическо разсъждение и режим на \"неразсъждение\" за общи разговори. Моделът е фино настроен за следване на инструкции, интеграция на агенти, креативно писане и многоезично използване на над 100 езика и диалекта. Той нативно поддържа контекстен прозорец от 32K токена и може да бъде разширен до 131K токена чрез YaRN."
3022
3088
  },
3089
+ "qwen/qwen3-coder": {
3090
+ "description": "Qwen3-Coder е генератор на код от семейството Qwen3, специализиран в разбиране и генериране на код в дълги документи."
3091
+ },
3092
+ "qwen/qwen3-coder-plus": {
3093
+ "description": "Qwen3-Coder-Plus е специално оптимизиран агент за кодиране от серията Qwen, поддържащ по-сложни инструментални операции и дългосрочни сесии."
3094
+ },
3095
+ "qwen/qwen3-max": {
3096
+ "description": "Qwen3 Max е висок клас логически модел от серията Qwen3, подходящ за многоезично разсъждение и интеграция с инструменти."
3097
+ },
3098
+ "qwen/qwen3-max-preview": {
3099
+ "description": "Qwen3 Max (предварителен преглед) е Max версията от серията Qwen, насочена към усъвършенствано разсъждение и интеграция с инструменти."
3100
+ },
3101
+ "qwen/qwen3-vl-plus": {
3102
+ "description": "Qwen3 VL-Plus е визуално подсилена версия от Qwen3, подобряваща мултимодалното разсъждение и обработката на видео."
3103
+ },
3023
3104
  "qwen2": {
3024
3105
  "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
3025
3106
  },
@@ -3395,6 +3476,9 @@
3395
3476
  "vercel/v0-1.5-md": {
3396
3477
  "description": "Достъп до модела зад v0 за генериране, поправка и оптимизация на модерни уеб приложения с разсъждения, специфични за рамки, и актуални знания."
3397
3478
  },
3479
+ "volcengine/doubao-seed-code": {
3480
+ "description": "Doubao-Seed-Code е голям модел на ByteDance Volcano Engine, оптимизиран за Agentic Programming, с отлично представяне в множество програмни и агентски бенчмаркове и поддръжка на 256K контекст."
3481
+ },
3398
3482
  "wan2.2-t2i-flash": {
3399
3483
  "description": "Wanxiang 2.2 експресна версия, най-новият модел към момента. Комплексно подобрение в креативност, стабилност и реализъм, с бърза скорост на генериране и висока цена-ефективност."
3400
3484
  },
@@ -3422,8 +3506,24 @@
3422
3506
  "wizardlm2:8x22b": {
3423
3507
  "description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти."
3424
3508
  },
3425
- "x-ai/grok-4-fast": {},
3426
- "x-ai/grok-code-fast-1": {},
3509
+ "x-ai/grok-4": {
3510
+ "description": "Grok 4 е флагманският логически модел на xAI, предлагащ мощни логически и мултимодални възможности."
3511
+ },
3512
+ "x-ai/grok-4-fast": {
3513
+ "description": "Grok 4 Fast е високопроизводителен и икономичен модел на xAI (с поддръжка на 2M контекстен прозорец), подходящ за приложения с висока едновременност и дълъг контекст."
3514
+ },
3515
+ "x-ai/grok-4-fast-non-reasoning": {
3516
+ "description": "Grok 4 Fast (Non-Reasoning) е високопроизводителен и икономичен мултимодален модел на xAI (с поддръжка на 2M контекстен прозорец), предназначен за сценарии, чувствителни към латентност и разходи, но без нужда от вътрешно разсъждение. Съществува паралелно с reasoning версията на Grok 4 Fast и позволява активиране на разсъждение чрез параметъра reasoning enable в API. Подадените заявки и отговори може да бъдат използвани от xAI или OpenRouter за подобряване на бъдещи модели."
3517
+ },
3518
+ "x-ai/grok-4.1-fast": {
3519
+ "description": "Grok 4 Fast е високопроизводителен и икономичен модел на xAI (с поддръжка на 2M контекстен прозорец), подходящ за приложения с висока едновременност и дълъг контекст."
3520
+ },
3521
+ "x-ai/grok-4.1-fast-non-reasoning": {
3522
+ "description": "Grok 4 Fast (Non-Reasoning) е високопроизводителен и икономичен мултимодален модел на xAI (с поддръжка на 2M контекстен прозорец), предназначен за сценарии, чувствителни към латентност и разходи, но без нужда от вътрешно разсъждение. Съществува паралелно с reasoning версията на Grok 4 Fast и позволява активиране на разсъждение чрез параметъра reasoning enable в API. Подадените заявки и отговори може да бъдат използвани от xAI или OpenRouter за подобряване на бъдещи модели."
3523
+ },
3524
+ "x-ai/grok-code-fast-1": {
3525
+ "description": "Grok Code Fast 1 е бърз кодов модел на xAI, предлагащ четим и инженерно пригоден изход."
3526
+ },
3427
3527
  "x1": {
3428
3528
  "description": "Моделът Spark X1 ще бъде допълнително обновен, като на базата на водещите в страната резултати в математически задачи, ще постигне ефекти в общи задачи като разсъждение, генериране на текст и разбиране на език, сравними с OpenAI o1 и DeepSeek R1."
3429
3529
  },
@@ -3484,7 +3584,15 @@
3484
3584
  "yi-vision-v2": {
3485
3585
  "description": "Модел за сложни визуални задачи, предлагащ висока производителност в разбирането и анализа на базата на множество изображения."
3486
3586
  },
3487
- "z-ai/glm-4.6": {},
3587
+ "z-ai/glm-4.5": {
3588
+ "description": "GLM 4.5 е флагманският модел на Z.AI, поддържащ хибриден режим на разсъждение и оптимизиран за инженерни и дългоконтекстови задачи."
3589
+ },
3590
+ "z-ai/glm-4.5-air": {
3591
+ "description": "GLM 4.5 Air е олекотена версия на GLM 4.5, подходяща за сценарии с ограничен бюджет, като същевременно запазва силни логически възможности."
3592
+ },
3593
+ "z-ai/glm-4.6": {
3594
+ "description": "GLM 4.6 е флагманският модел на Z.AI, с разширен контекст и подобрени кодиращи способности."
3595
+ },
3488
3596
  "zai-org/GLM-4.5": {
3489
3597
  "description": "GLM-4.5 е базов модел, специално създаден за интелигентни агенти, използващ архитектура с микс от експерти (Mixture-of-Experts). Той е дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и поддържа безпроблемна интеграция с кодови агенти като Claude Code и Roo Code. GLM-4.5 използва смесен режим на разсъждение, подходящ за сложни и ежедневни приложения."
3490
3598
  },
@@ -3505,5 +3613,8 @@
3505
3613
  },
3506
3614
  "zai/glm-4.5v": {
3507
3615
  "description": "GLM-4.5V е изграден върху основния модел GLM-4.5-Air, наследявайки проверените технологии на GLM-4.1V-Thinking и постига ефективно мащабиране чрез мощната MoE архитектура с 106 милиарда параметри."
3616
+ },
3617
+ "zenmux/auto": {
3618
+ "description": "Функцията за автоматично маршрутизиране на ZenMux автоматично избира най-добрия модел с най-добро съотношение цена/качество и представяне според съдържанието на вашата заявка от поддържаните модели."
3508
3619
  }
3509
3620
  }
@@ -1715,6 +1715,9 @@
1715
1715
  "google/gemini-2.5-pro-preview": {
1716
1716
  "description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und MINT zu analysieren sowie große Datensätze, Codebasen und Dokumente mit langem Kontext zu untersuchen."
1717
1717
  },
1718
+ "google/gemini-3-pro-image-preview": {
1719
+ "description": "Gemini 3 Pro Image (Nano Banana Pro) ist ein von Google entwickeltes Bildgenerierungsmodell, das gleichzeitig multimodale Dialoge unterstützt."
1720
+ },
1718
1721
  "google/gemini-3-pro-image-preview-free": {
1719
1722
  "description": "Kostenlose Vorschauversion von Gemini 3 Pro Image mit begrenztem Kontingent für multimodale Generierung."
1720
1723
  },
@@ -1715,6 +1715,9 @@
1715
1715
  "google/gemini-2.5-pro-preview": {
1716
1716
  "description": "Gemini 2.5 Pro Preview is Google's most advanced thinking model, capable of reasoning through complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using extended context."
1717
1717
  },
1718
+ "google/gemini-3-pro-image-preview": {
1719
+ "description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model, which also supports multimodal conversations."
1720
+ },
1718
1721
  "google/gemini-3-pro-image-preview-free": {
1719
1722
  "description": "Gemini 3 Pro Image Free Edition supports limited multimodal generation."
1720
1723
  },
@@ -1715,6 +1715,9 @@
1715
1715
  "google/gemini-2.5-pro-preview": {
1716
1716
  "description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como de analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos extensos."
1717
1717
  },
1718
+ "google/gemini-3-pro-image-preview": {
1719
+ "description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, que también admite conversaciones multimodales."
1720
+ },
1718
1721
  "google/gemini-3-pro-image-preview-free": {
1719
1722
  "description": "Versión gratuita de Gemini 3 Pro Image, compatible con generación multimodal con cuota limitada."
1720
1723
  },