@lobehub/chat 1.126.2 → 1.126.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -2,6 +2,32 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.126.3](https://github.com/lobehub/lobe-chat/compare/v1.126.2...v1.126.3)
6
+
7
+ <sup>Released on **2025-09-10**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Add CometAPI model provider and chat models, update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Add CometAPI model provider and chat models, closes [#9065](https://github.com/lobehub/lobe-chat/issues/9065) ([575e334](https://github.com/lobehub/lobe-chat/commit/575e334))
21
+ - **misc**: Update i18n, closes [#9146](https://github.com/lobehub/lobe-chat/issues/9146) ([e6fc02e](https://github.com/lobehub/lobe-chat/commit/e6fc02e))
22
+
23
+ </details>
24
+
25
+ <div align="right">
26
+
27
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
28
+
29
+ </div>
30
+
5
31
  ### [Version 1.126.2](https://github.com/lobehub/lobe-chat/compare/v1.126.1...v1.126.2)
6
32
 
7
33
  <sup>Released on **2025-09-09**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Add CometAPI model provider and chat models, update i18n."
6
+ ]
7
+ },
8
+ "date": "2025-09-10",
9
+ "version": "1.126.3"
10
+ },
2
11
  {
3
12
  "children": {
4
13
  "fixes": [
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "النموذج الأول محليًا، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط الرائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS هي سلسلة من نماذج اللغة الكبيرة مفتوحة المصدر التي طورتها فريق Seed في شركة ByteDance، مصممة خصيصًا لمعالجة السياقات الطويلة القوية، والاستدلال، والوكيل الذكي (agent)، والقدرات العامة. النموذج Seed-OSS-36B-Instruct في هذه السلسلة هو نموذج ضبط دقيق للتعليمات يحتوي على 36 مليار معلمة، ويدعم بطبيعته سياقات فائقة الطول، مما يمكنه من معالجة كميات هائلة من الوثائق أو قواعد الشيفرة المعقدة دفعة واحدة. تم تحسين هذا النموذج بشكل خاص لمهام الاستدلال، وتوليد الشيفرة، ومهام الوكيل (مثل استخدام الأدوات)، مع الحفاظ على توازن وقدرات عامة ممتازة. من الميزات البارزة لهذا النموذج وظيفة \"ميزانية التفكير\" التي تسمح للمستخدمين بضبط طول الاستدلال بمرونة حسب الحاجة، مما يعزز كفاءة الاستدلال في التطبيقات العملية."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "نموذج LLM المتقدم والفعال، بارع في الاستدلال والرياضيات والبرمجة."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "مزود النموذج: منصة sophnet. DeepSeek V3 Fast هو النسخة السريعة عالية TPS من إصدار DeepSeek V3 0324، غير مكوّن بالكامل، يتمتع بقدرات برمجية ورياضية أقوى واستجابة أسرع!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد أطلقته DeepSeek، يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تم تعزيز استخدام أدوات الوكيل وأداء مهام الوكيل بشكل كبير."
87
+ "description": "DeepSeek-V3.1 - وضع عدم التفكير؛ DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تحسنت بشكل كبير أداء استخدام أدوات الوكيل ومهام الوكيل الذكي."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast هو النسخة عالية الأداء من DeepSeek V3.1 مع معدل معاملات في الثانية (TPS) مرتفع. وضع التفكير الهجين: من خلال تغيير قالب المحادثة، يمكن لنموذج واحد دعم وضعي التفكير وعدم التفكير في نفس الوقت. استدعاء أدوات أكثر ذكاءً: بفضل تحسين ما بعد التدريب، تحسن أداء النموذج بشكل ملحوظ في استخدام الأدوات ومهام الوكيل."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - وضع التفكير؛ DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تحسنت بشكل كبير أداء استخدام أدوات الوكيل ومهام الوكيل الذكي."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite يتميز بسرعة استجابة فائقة وقيمة أفضل مقابل المال، ويوفر خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتخصيص مع نافذة سياق 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "الأمر-r7b-12-2024 هو إصدار صغير وفعال تم إصداره في ديسمبر 2024. يظهر أداءً ممتازًا في المهام التي تتطلب استدلالًا معقدًا ومعالجة متعددة الخطوات مثل RAG، واستخدام الأدوات، والوكالات."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta هو نظام ذكاء اصطناعي مركب، مدعوم بعدة نماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini هو نظام ذكاء اصطناعي مركب، مدعوم بنماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "نموذج computer-use-preview هو نموذج مخصص لأدوات \"استخدام الحاسوب\"، تم تدريبه لفهم وتنفيذ المهام المتعلقة بالحاسوب."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "نموذج Doubao-Seed-1.6-thinking يعزز قدرات التفكير بشكل كبير، مقارنة بـ Doubao-1.5-thinking-pro، مع تحسينات إضافية في القدرات الأساسية مثل البرمجة والرياضيات والاستدلال المنطقي، ويدعم الفهم البصري. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 16k رمز."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "نموذج التفكير العميق البصري Doubao-Seed-1.6-vision، يظهر قدرة فهم واستدلال متعددة الوسائط عامة أقوى في سيناريوهات التعليم، مراجعة الصور، التفتيش والأمن، والبحث والإجابة بالذكاء الاصطناعي. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 64k رمزًا."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "نموذج توليد الصور Doubao طوره فريق Seed في ByteDance، يدعم إدخال النص والصورة، ويوفر تجربة توليد صور عالية الجودة وقابلة للتحكم. يولد الصور بناءً على أوامر نصية."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) يوفر قدرة أساسية على معالجة التعليمات، مناسب للتطبيقات الخفيفة."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B هو نموذج لغة مفتوح المصدر من جوجل، وضع معايير جديدة في الكفاءة والأداء."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B هو نموذج لغة مفتوح المصدر من جوجل، وضع معايير جديدة في الكفاءة والأداء."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "نحن سعداء بإطلاق grok-code-fast-1، وهو نموذج استدلال سريع وفعال من حيث التكلفة، يتميز بأداء ممتاز في ترميز الوكلاء."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم من عدة نماذج متاحة مفتوحة المصدر في GroqCloud، يمكنه استخدام الأدوات بذكاء وباختيار للرد على استفسارات المستخدمين."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم من نماذج متاحة مفتوحة المصدر في GroqCloud، يمكنه استخدام الأدوات بذكاء وباختيار للرد على استفسارات المستخدمين."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "تحسين كبير في القدرات الرياضية، المنطقية والبرمجية عالية الصعوبة، مع تحسين استقرار مخرجات النموذج وتعزيز قدرات النصوص الطويلة."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "أول نموذج استدلال هجين ضخم في الصناعة، يوسع قدرات الاستدلال، بسرعة فك تشفير فائقة، ويعزز التوافق مع تفضيلات البشر."
1677
+ "description": "تحسين كبير لقدرات نموذج التفكير البطيء الرئيسي في الرياضيات الصعبة، الاستدلال المعقد، الشيفرة الصعبة، الالتزام بالتعليمات، وجودة إنشاء النصوص."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "نموذج تفكير عميق متعدد الوسائط من Hunyuan، يدعم سلاسل التفكير الأصلية متعددة الوسائط، بارع في معالجة مختلف سيناريوهات الاستدلال على الصور، ويحقق تحسينًا شاملاً مقارنة بنموذج التفكير السريع في مسائل العلوم."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات قوية للغاية في البرمجة وقدرات الوكيل (Agent)، بإجمالي معلمات يبلغ 1 تريليون والمعلمات المُفعَّلة 32 مليار. في اختبارات الأداء المعيارية للفئات الرئيسية مثل الاستدلال المعرفي العام والبرمجة والرياضيات والوكلاء (Agent)، تفوق أداء نموذج K2 على النماذج المفتوحة المصدر السائدة الأخرى."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE يتمتع بقدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 هو نموذج أساسي مبني على بنية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء المعيارية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "نموذج كود Tongyi Qianwen. أحدث سلسلة نماذج Qwen3-Coder مبنية على Qwen3 لتوليد الأكواد، تتمتع بقدرات وكيل ترميز قوية، بارعة في استدعاء الأدوات والتفاعل مع البيئة، قادرة على البرمجة الذاتية، وتجمع بين مهارات برمجية ممتازة وقدرات عامة."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "نسخة المعاينة لنموذج Qwen 3 Max من سلسلة Tongyi Qianwen، مع تحسينات كبيرة في القدرات العامة مقارنة بسلسلة 2.5، بما في ذلك فهم النصوص العامة باللغتين الصينية والإنجليزية، الالتزام بالتعليمات المعقدة، المهام المفتوحة الذاتية، القدرات متعددة اللغات، واستدعاء الأدوات؛ مع تقليل الأوهام المعرفية للنموذج."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ هو نموذج بحث تجريبي يركز على تحسين قدرات الاستدلال للذكاء الاصطناعي."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS е серия от отворени големи езикови модели, разработени от екипа Seed на ByteDance, специално проектирани за мощна обработка на дълъг контекст, разсъждения, агенти и универсални способности. Seed-OSS-36B-Instruct в тази серия е модел с 36 милиарда параметри, фино настроен за инструкции, който поддържа естествено изключително дълъг контекст, позволявайки му да обработва големи документи или сложни кодови бази наведнъж. Моделът е специално оптимизиран за разсъждения, генериране на код и задачи с агенти (като използване на инструменти), като същевременно поддържа балансирани и отлични универсални способности. Една от ключовите характеристики на този модел е функцията „Бюджет за мислене“ (Thinking Budget), която позволява на потребителите гъвкаво да регулират дължината на разсъжденията според нуждите, което ефективно повишава ефективността при реални приложения."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "Най-напредналият ефективен LLM, специализиран в разсъждения, математика и програмиране."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Доставчик на модела: платформа sophnet. DeepSeek V3 Fast е високоскоростната версия с висока TPS на DeepSeek V3 0324, с пълна точност без квантизация, с по-силни кодови и математически възможности и по-бърз отговор!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 е новият хибриден модел за разсъждение на DeepSeek, който поддържа два режима на разсъждение: мислене и немислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация чрез пост-тренировка, използването на агентски инструменти и изпълнението на задачи от интелигентни агенти са значително подобрени."
87
+ "description": "DeepSeek-V3.1 - режим без мислене; DeepSeek-V3.1 е нов хибриден модел за разсъждения, пуснат от DeepSeek, който поддържа два режима на разсъждения - с и без мислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация след обучение, използването на инструменти от агенти и изпълнението на задачи с агенти са значително подобрени."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast е високопроизводителната версия с висока TPS на DeepSeek V3.1. Хибриден режим на мислене: чрез промяна на шаблона за чат, един модел може да поддържа едновременно режим с мислене и без мислене. По-интелигентно извикване на инструменти: чрез оптимизация след обучение, представянето на модела при използване на инструменти и задачи с агенти е значително подобрено."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - режим с мислене; DeepSeek-V3.1 е нов хибриден модел за разсъждения, пуснат от DeepSeek, който поддържа два режима на разсъждения - с и без мислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация след обучение, използването на инструменти от агенти и изпълнението на задачи с агенти са значително подобрени."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite предлага изключително бърза реакция и по-добро съотношение цена-качество, осигурявайки по-гъвкави опции за различни сценарии на клиентите. Поддържа разсъждения и финна настройка с контекстен прозорец от 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 е малка и ефективна актуализирана версия, пусната през декември 2024 г. Тя показва отлични резултати в задачи, изискващи сложни разсъждения и многократна обработка, като RAG, използване на инструменти и агенти."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta е композитна AI система, подкрепена от множество отворени модели, налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на запитвания на потребителите."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini е композитна AI система, подкрепена от публично достъпни модели в GroqCloud, която интелигентно и селективно използва инструменти за отговор на запитвания на потребителите."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Моделът computer-use-preview е специално разработен за „инструменти за използване на компютър“, обучен да разбира и изпълнява задачи, свързани с компютри."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Doubao-Seed-1.6-thinking моделът значително подобрява способностите за мислене в сравнение с Doubao-1.5-thinking-pro, с допълнителни подобрения в кодиране, математика и логическо разсъждение, като поддържа и визуално разбиране. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 16k токена."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision е визуален модел за дълбоко мислене, който демонстрира по-силни универсални мултимодални разбирания и способности за разсъждение в сценарии като образование, преглед на изображения, инспекции и сигурност, както и AI търсене и отговори. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 64k токена."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Моделът за генериране на изображения Doubao е разработен от екипа Seed на ByteDance, поддържа вход както от текст, така и от изображения, и предлага високо контролирано и качествено генериране на изображения. Генерира изображения въз основа на текстови подсказки."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) предлага основни способности за обработка на инструкции, подходящи за леки приложения."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B е отворен езиков модел на Google, който поставя нови стандарти за ефективност и производителност."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B е отворен езиков модел на Google, който поставя нови стандарти за ефективност и производителност."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "С удоволствие представяме grok-code-fast-1, бърз и икономичен модел за извод, който се отличава с отлични резултати при кодиране на агенти."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound е сложна AI система, поддържана от множество отворени модели, вече налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на потребителски запитвания."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini е сложна AI система, поддържана от публично достъпни модели, вече налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на потребителски запитвания."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Значително подобрени способности в сложна математика, логика и кодиране, оптимизирана стабилност на изхода и подобрена работа с дълги текстове."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Първият в индустрията свръхголям хибриден трансформаторен модел за инференция, който разширява инференционните способности, предлага изключителна скорост на декодиране и допълнително съгласува човешките предпочитания."
1677
+ "description": "Значително подобрява способностите на основния модел за бавно мислене при сложна математика, комплексни разсъждения, труден код, спазване на инструкции и качество на текстовото творчество."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Модел за дълбоко мултимодално разбиране Hunyuan, поддържащ естествени мултимодални вериги на мислене, експертен в различни сценарии за разсъждение върху изображения, с цялостно подобрение спрямо бързите мисловни модели при научни задачи."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 е базов модел с MoE архитектура с изключителни способности за кодиране и агентски функции, с общо 1 трилион параметри и 32 милиарда активни параметри. В тестове за общо знание, програмиране, математика и агентски задачи, моделът K2 превъзхожда други водещи отворени модели."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "Kimi-k2 е базов модел с MoE архитектура, който притежава изключителни възможности за работа с код и агентни функции. Общият брой параметри е 1T, а активните параметри са 32B. В бенчмарковете за основни категории като общо знание и разсъждение, програмиране, математика и агентни задачи, моделът K2 превъзхожда другите водещи отворени модели."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 е базов модел с MoE архитектура, с изключителни кодови и агентски способности, общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 е базов модел с MoE архитектура с изключителни способности за кодиране и агент, с общо 1 трилион параметри и 32 милиарда активни параметри. В бенчмаркови тестове за общи знания, програмиране, математика и агенти, моделът K2 превъзхожда други водещи отворени модели."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Кодиращ модел на Tongyi Qianwen. Най-новата серия модели Qwen3-Coder е базирана на Qwen3 и е модел за генериране на код с мощни възможности на Coding Agent, умеещ да използва инструменти и да взаимодейства с околната среда, способен на автономно програмиране, с изключителни кодови умения и същевременно общи способности."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Preview версия на Max модела от серията Qwen 3, с голямо подобрение спрямо серия 2.5 в общите универсални способности, разбиране на текст на китайски и английски, следване на сложни инструкции, субективни отворени задачи, многоезични способности и използване на инструменти; моделът има по-малко халюцинации на знания."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ е експериментален изследователски модел, който се фокусира върху подобряване на AI разсъдъчните способности."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Das Modell hat die höchste Leistungsfähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativen Generierungen auf Chinesisch. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren anerkannten Bewertungsbenchmarks hervorragende Leistungen."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS ist eine von ByteDance Seed entwickelten Reihe von Open-Source-Großsprachmodellen, die speziell für leistungsstarke Langkontextverarbeitung, Schlussfolgerungen, Agenten und allgemeine Fähigkeiten konzipiert sind. Das Modell Seed-OSS-36B-Instruct aus dieser Reihe ist ein feinabgestimmtes Instruktionsmodell mit 36 Milliarden Parametern, das nativ extrem lange Kontextlängen unterstützt, wodurch es in der Lage ist, umfangreiche Dokumente oder komplexe Codebasen auf einmal zu verarbeiten. Dieses Modell ist besonders für Schlussfolgerungen, Codegenerierung und Agentenaufgaben (wie Werkzeugnutzung) optimiert und bewahrt dabei eine ausgewogene und hervorragende allgemeine Leistungsfähigkeit. Ein herausragendes Merkmal dieses Modells ist die Funktion \"Thinking Budget\", die es Nutzern ermöglicht, die Schlussfolgerungslänge flexibel anzupassen, um die Effizienz in praktischen Anwendungen effektiv zu steigern."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "Ein hochmodernes, effizientes LLM, das sich auf Schlussfolgerungen, Mathematik und Programmierung spezialisiert hat."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Modellanbieter: sophnet-Plattform. DeepSeek V3 Fast ist die Hochgeschwindigkeitsversion mit hohem TPS des DeepSeek V3 0324 Modells, voll funktionsfähig ohne Quantisierung, mit stärkerer Code- und mathematischer Leistungsfähigkeit und schnellerer Reaktionszeit!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denkmodus und Nicht-Denkmodus. Es ist effizienter im Denkprozess als DeepSeek-R1-0528. Durch Post-Training-Optimierung wurden die Nutzung von Agenten-Tools und die Leistung bei Agentenaufgaben erheblich verbessert."
87
+ "description": "DeepSeek-V3.1 - Nicht-Denkmodus; DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denk- und Nicht-Denkmodus, mit höherer Denkeffizienz im Vergleich zu DeepSeek-R1-0528. Durch Post-Training-Optimierung wurde die Leistung bei Agenten-Werkzeugnutzung und Agentenaufgaben deutlich verbessert."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast ist die Hochgeschwindigkeitsversion von DeepSeek V3.1 mit hoher TPS. Hybrid-Denkmodus: Durch Änderung der Chat-Vorlage kann ein Modell sowohl Denk- als auch Nicht-Denkmodus gleichzeitig unterstützen. Intelligenterer Werkzeugaufruf: Durch Post-Training-Optimierung wurde die Leistung des Modells bei Werkzeugnutzung und Agentenaufgaben signifikant verbessert."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - Denkmodus; DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denk- und Nicht-Denkmodus, mit höherer Denkeffizienz im Vergleich zu DeepSeek-R1-0528. Durch Post-Training-Optimierung wurde die Leistung bei Agenten-Werkzeugnutzung und Agentenaufgaben deutlich verbessert."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite bietet extrem schnelle Reaktionszeiten und ein hervorragendes Preis-Leistungs-Verhältnis, um Kunden in verschiedenen Szenarien flexiblere Optionen zu bieten. Unterstützt Inferenz und Feintuning mit einem Kontextfenster von 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 ist eine kompakte und effiziente aktualisierte Version, die im Dezember 2024 veröffentlicht wurde. Es zeigt hervorragende Leistungen in Aufgaben, die komplexes Denken und mehrstufige Verarbeitung erfordern, wie RAG, Werkzeugnutzung und Agenten."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta ist ein hybrides KI-System, das von mehreren öffentlich verfügbaren Modellen in GroqCloud unterstützt wird und intelligent und selektiv Werkzeuge zur Beantwortung von Benutzeranfragen einsetzt."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini ist ein hybrides KI-System, das von öffentlich verfügbaren Modellen in GroqCloud unterstützt wird und intelligent und selektiv Werkzeuge zur Beantwortung von Benutzeranfragen einsetzt."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Das Modell computer-use-preview ist ein speziell für „Computeranwendungstools“ entwickeltes Modell, das darauf trainiert wurde, computerbezogene Aufgaben zu verstehen und auszuführen."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Das Doubao-Seed-1.6-thinking Modell verfügt über stark verbesserte Denkfähigkeiten. Im Vergleich zu Doubao-1.5-thinking-pro wurden die Grundfähigkeiten in Coding, Mathematik und logischem Denken weiter verbessert und unterstützt visuelles Verständnis. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 16k Tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision ist ein visuelles Tiefdenkmodell, das in Szenarien wie Bildung, Bildprüfung, Inspektion und Sicherheit sowie KI-Suchfragen eine stärkere allgemeine multimodale Verständnis- und Schlussfolgerungsfähigkeit zeigt. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 64k Tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Das Doubao-Bildgenerierungsmodell wurde vom ByteDance Seed Team entwickelt und unterstützt sowohl Text- als auch Bildeingaben, um eine hochgradig kontrollierbare und qualitativ hochwertige Bildgenerierung zu bieten. Es erzeugt Bilder basierend auf Text-Prompts."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) bietet grundlegende Anweisungsverarbeitungsfähigkeiten und eignet sich für leichte Anwendungen."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Wir freuen uns, grok-code-fast-1 vorzustellen, ein schnelles und kosteneffizientes Inferenzmodell, das sich durch hervorragende Leistung bei der Agentencodierung auszeichnet."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound ist ein zusammengesetztes KI-System, das von mehreren bereits in GroqCloud unterstützten öffentlich verfügbaren Modellen getragen wird und intelligent sowie selektiv Werkzeuge zur Beantwortung von Nutzeranfragen einsetzt."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini ist ein zusammengesetztes KI-System, das von öffentlich verfügbaren Modellen unterstützt wird, die bereits in GroqCloud verfügbar sind, und intelligent sowie selektiv Werkzeuge zur Beantwortung von Nutzeranfragen einsetzt."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Erhebliche Verbesserungen bei anspruchsvoller Mathematik, Logik und Programmierfähigkeiten, Optimierung der Modellstabilität und Steigerung der Leistungsfähigkeit bei langen Texten."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Das erste ultra-skalierbare Hybrid-Transformer-Mamba-Inferenzmodell der Branche, das die Inferenzfähigkeiten erweitert, eine extrem hohe Dekodierungsgeschwindigkeit bietet und weiter auf menschliche Präferenzen abgestimmt ist."
1677
+ "description": "Erhebliche Verbesserung der Fähigkeiten des Hauptmodells im langsamen Denkmodus bei anspruchsvoller Mathematik, komplexen Schlussfolgerungen, anspruchsvollem Code, Befolgung von Anweisungen und Textkreation."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Hunyuan ist ein multimodales Verständnis- und Tiefdenkmodell, das native multimodale lange Denkprozesse unterstützt. Es ist spezialisiert auf verschiedene Bildinferenzszenarien und zeigt im Vergleich zu Schnelldenkmodellen umfassende Verbesserungen bei naturwissenschaftlichen Problemen."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 ist ein MoE-Architektur-Basis-Modell mit außergewöhnlichen Fähigkeiten in Code und Agentenfunktionen, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 ist ein Basis-Modell mit MoE-Architektur und besonders starken Fähigkeiten im Bereich Code und Agenten. Es verfügt über insgesamt 1T Parameter und 32B aktivierte Parameter. In Benchmark-Tests der wichtigsten Kategorien – allgemeines Wissens-Reasoning, Programmierung, Mathematik und Agenten – übertrifft das K2-Modell die Leistung anderer gängiger Open‑Source‑Modelle."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 ist ein MoE-Basis-Modell mit herausragenden Code- und Agentenfähigkeiten, insgesamt 1 Billion Parameter und 32 Milliarden aktivierten Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agentenaufgaben übertrifft das K2-Modell andere führende Open-Source-Modelle."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 ist ein MoE-Architektur-Basismodell mit außergewöhnlichen Fähigkeiten in Code und Agenten, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Tongyi Qianwen Code-Modell. Die neueste Qwen3-Coder Modellreihe basiert auf Qwen3 und ist ein Code-Generierungsmodell mit starker Coding-Agent-Fähigkeit, spezialisiert auf Werkzeugaufrufe und Umgebungsinteraktion, das selbstständiges Programmieren ermöglicht und neben hervorragenden Code-Fähigkeiten auch allgemeine Kompetenzen besitzt."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Die Preview-Version des Max-Modells der Tongyi Qianwen 3-Serie zeigt im Vergleich zur 2.5-Serie eine deutliche Steigerung der allgemeinen Fähigkeiten, einschließlich verbesserter chinesisch- und englischsprachiger Textverständnisfähigkeiten, komplexer Befolgung von Anweisungen, subjektiver offener Aufgaben, Mehrsprachigkeit und Werkzeugaufruf-Fähigkeiten; das Modell zeigt weniger Wissenshalluzinationen."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ ist ein experimentelles Forschungsmodell, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "The leading model in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also possesses industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS is a series of open-source large language models developed by ByteDance's Seed team, designed specifically for powerful long-context processing, reasoning, agents, and general capabilities. The Seed-OSS-36B-Instruct in this series is an instruction-tuned model with 36 billion parameters, natively supporting ultra-long context lengths, enabling it to handle massive documents or complex codebases in a single pass. This model is specially optimized for reasoning, code generation, and agent tasks (such as tool usage), while maintaining balanced and excellent general capabilities. A key feature of this model is the \"Thinking Budget\" function, which allows users to flexibly adjust the reasoning length as needed, effectively improving reasoning efficiency in practical applications."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "A state-of-the-art efficient LLM, skilled in reasoning, mathematics, and programming."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Model provider: sophnet platform. DeepSeek V3 Fast is the high-TPS ultra-fast version of DeepSeek V3 0324, fully powered without quantization, featuring enhanced coding and mathematical capabilities for faster response!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting two reasoning modes: thinking and non-thinking. It offers higher thinking efficiency compared to DeepSeek-R1-0528. With post-training optimization, the use of Agent tools and agent task performance have been significantly enhanced."
87
+ "description": "DeepSeek-V3.1 - Non-Thinking Mode; DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting both thinking and non-thinking reasoning modes, with higher thinking efficiency compared to DeepSeek-R1-0528. Post-training optimization significantly enhances agent tool usage and agent task performance."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast is the high-TPS, ultra-fast version of DeepSeek V3.1. Hybrid Thinking Mode: By changing the chat template, a single model can support both thinking and non-thinking modes simultaneously. Smarter Tool Invocation: Post-training optimization significantly improves the model's performance in tool usage and agent tasks."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - Thinking Mode; DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting both thinking and non-thinking reasoning modes, with higher thinking efficiency compared to DeepSeek-R1-0528. Post-training optimization significantly enhances agent tool usage and agent task performance."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite offers ultra-fast response times and better cost-effectiveness, providing customers with more flexible options for different scenarios. Supports inference and fine-tuning with a 128k context window."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 is a compact and efficient updated version, released in December 2024. It excels in tasks requiring complex reasoning and multi-step processing, such as RAG, tool usage, and agent tasks."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta is a composite AI system supported by multiple publicly available models in GroqCloud, intelligently and selectively using tools to answer user queries."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini is a composite AI system supported by publicly available models in GroqCloud, intelligently and selectively using tools to answer user queries."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "The computer-use-preview model is a dedicated model designed for \"computer usage tools,\" trained to understand and execute computer-related tasks."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Doubao-Seed-1.6-thinking features greatly enhanced thinking capabilities. Compared to Doubao-1.5-thinking-pro, it further improves foundational skills such as coding, math, and logical reasoning, and supports visual understanding. It supports a 256k context window and output lengths up to 16k tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision is a visual deep thinking model that demonstrates stronger general multimodal understanding and reasoning capabilities in scenarios such as education, image review, inspection and security, and AI search Q&A. It supports a 256k context window and an output length of up to 64k tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Doubao image generation model developed by ByteDance Seed team supports both text and image inputs, providing a highly controllable and high-quality image generation experience based on text prompts."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash experimental model, supporting image generation."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash experimental model, supporting image generation."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) provides basic instruction processing capabilities, suitable for lightweight applications."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B is an open-source language model from Google that sets new standards in efficiency and performance."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B is an open-source language model from Google that sets new standards in efficiency and performance."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "We are excited to introduce grok-code-fast-1, a fast and cost-effective inference model that excels in agent coding."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound is a composite AI system supported by multiple openly available models already supported in GroqCloud, capable of intelligently and selectively using tools to answer user queries."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini is a composite AI system supported by publicly available models already supported in GroqCloud, capable of intelligently and selectively using tools to answer user queries."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Significantly improves high-difficulty mathematics, logic, and coding capabilities, optimizes model output stability, and enhances long-text processing ability."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "The industry's first ultra-large-scale Hybrid-Transformer-Mamba inference model, enhancing reasoning capabilities with exceptional decoding speed, further aligning with human preferences."
1677
+ "description": "Significantly enhances the main model's slow-thinking capabilities in advanced mathematics, complex reasoning, difficult coding, instruction adherence, and text creation quality."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Hunyuan is a multimodal deep thinking model supporting native multimodal chain-of-thought reasoning, excelling in various image reasoning scenarios and significantly outperforming fast-thinking models on science problems."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 is a MoE architecture base model with powerful coding and agent capabilities, totaling 1 trillion parameters with 32 billion active parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "Kimi-K2 is a Mixture-of-Experts (MoE) foundation model with exceptional coding and agent capabilities, featuring 1T total parameters and 32B activated parameters. In benchmark evaluations across core categories — general knowledge reasoning, programming, mathematics, and agent tasks — the K2 model outperforms other leading open-source models."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 is a MoE architecture base model with exceptional coding and agent capabilities, featuring 1 trillion total parameters and 32 billion activated parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 is a MoE architecture base model with powerful coding and Agent capabilities, featuring a total of 1 trillion parameters and 32 billion active parameters. In benchmark tests across key categories such as general knowledge reasoning, programming, mathematics, and Agent tasks, the K2 model outperforms other mainstream open-source models."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B is an upgraded version of Nous Hermes 2, featuring the latest internally developed datasets."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Tongyi Qianwen code model. The latest Qwen3-Coder series models are code generation models based on Qwen3, equipped with powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding skills alongside general capabilities."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "The Qwen 3 series Max model preview version shows a significant overall improvement compared to the 2.5 series in general capabilities, including Chinese and English text understanding, complex instruction adherence, subjective open tasks, multilingual capabilities, and tool invocation. The model also exhibits fewer knowledge hallucinations."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ is an experimental research model focused on improving AI reasoning capabilities."
2554
2581
  },