@lobehub/chat 1.126.2 → 1.127.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (56) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +21 -0
  3. package/docs/self-hosting/environment-variables/model-provider.mdx +2 -2
  4. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +2 -2
  5. package/locales/ar/models.json +38 -11
  6. package/locales/bg-BG/models.json +38 -11
  7. package/locales/de-DE/models.json +38 -11
  8. package/locales/en-US/models.json +38 -11
  9. package/locales/es-ES/models.json +38 -11
  10. package/locales/fa-IR/models.json +38 -11
  11. package/locales/fr-FR/models.json +38 -11
  12. package/locales/it-IT/models.json +38 -11
  13. package/locales/ja-JP/models.json +38 -11
  14. package/locales/ko-KR/models.json +38 -11
  15. package/locales/nl-NL/models.json +38 -11
  16. package/locales/pl-PL/models.json +38 -11
  17. package/locales/pt-BR/models.json +38 -11
  18. package/locales/ru-RU/models.json +38 -11
  19. package/locales/tr-TR/models.json +38 -11
  20. package/locales/vi-VN/models.json +38 -11
  21. package/locales/zh-CN/image.json +3 -0
  22. package/locales/zh-CN/models.json +38 -11
  23. package/locales/zh-TW/models.json +38 -11
  24. package/package.json +3 -3
  25. package/packages/model-bank/package.json +1 -0
  26. package/packages/model-bank/src/aiModels/cometapi.ts +349 -0
  27. package/packages/model-bank/src/aiModels/fal.ts +46 -7
  28. package/packages/model-bank/src/aiModels/index.ts +3 -0
  29. package/packages/model-bank/src/aiModels/volcengine.ts +51 -21
  30. package/packages/model-bank/src/standard-parameters/index.ts +3 -0
  31. package/packages/model-runtime/src/cometapi/index.ts +49 -0
  32. package/packages/model-runtime/src/fal/index.test.ts +374 -0
  33. package/packages/model-runtime/src/fal/index.ts +23 -14
  34. package/packages/model-runtime/src/index.ts +1 -0
  35. package/packages/model-runtime/src/runtimeMap.ts +2 -0
  36. package/packages/model-runtime/src/types/type.ts +1 -0
  37. package/packages/model-runtime/src/volcengine/createImage.test.ts +522 -0
  38. package/packages/model-runtime/src/volcengine/createImage.ts +118 -0
  39. package/packages/model-runtime/src/volcengine/index.ts +2 -0
  40. package/packages/types/src/user/settings/keyVaults.ts +1 -0
  41. package/packages/utils/src/parseModels.test.ts +11 -8
  42. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/CfgSliderInput.tsx +11 -0
  43. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/StepsSliderInput.tsx +2 -2
  44. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/index.tsx +9 -0
  45. package/src/config/llm.ts +6 -0
  46. package/src/config/modelProviders/cometapi.ts +24 -0
  47. package/src/config/modelProviders/index.ts +3 -0
  48. package/src/features/ChatInput/ActionBar/index.tsx +19 -1
  49. package/src/features/ChatInput/Desktop/index.tsx +7 -0
  50. package/src/features/ChatInput/InputEditor/index.tsx +4 -6
  51. package/src/features/ChatInput/TypoBar/index.tsx +116 -103
  52. package/src/locales/default/image.ts +3 -0
  53. package/src/server/routers/async/image.ts +6 -1
  54. package/src/store/global/actions/workspacePane.ts +7 -0
  55. package/src/store/global/initialState.ts +2 -0
  56. package/src/store/global/selectors/systemStatus.ts +2 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,65 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 1.127.0](https://github.com/lobehub/lobe-chat/compare/v1.126.3...v1.127.0)
6
+
7
+ <sup>Released on **2025-09-10**</sup>
8
+
9
+ #### ✨ Features
10
+
11
+ - **misc**: Seedream 4.0.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Add hotkey tooltip to typobar actions.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### What's improved
23
+
24
+ - **misc**: Seedream 4.0, closes [#9198](https://github.com/lobehub/lobe-chat/issues/9198) ([26a743f](https://github.com/lobehub/lobe-chat/commit/26a743f))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Add hotkey tooltip to typobar actions, closes [#9203](https://github.com/lobehub/lobe-chat/issues/9203) ([e372875](https://github.com/lobehub/lobe-chat/commit/e372875))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
38
+ ### [Version 1.126.3](https://github.com/lobehub/lobe-chat/compare/v1.126.2...v1.126.3)
39
+
40
+ <sup>Released on **2025-09-10**</sup>
41
+
42
+ #### 💄 Styles
43
+
44
+ - **misc**: Add CometAPI model provider and chat models, update i18n.
45
+
46
+ <br/>
47
+
48
+ <details>
49
+ <summary><kbd>Improvements and Fixes</kbd></summary>
50
+
51
+ #### Styles
52
+
53
+ - **misc**: Add CometAPI model provider and chat models, closes [#9065](https://github.com/lobehub/lobe-chat/issues/9065) ([575e334](https://github.com/lobehub/lobe-chat/commit/575e334))
54
+ - **misc**: Update i18n, closes [#9146](https://github.com/lobehub/lobe-chat/issues/9146) ([e6fc02e](https://github.com/lobehub/lobe-chat/commit/e6fc02e))
55
+
56
+ </details>
57
+
58
+ <div align="right">
59
+
60
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
61
+
62
+ </div>
63
+
5
64
  ### [Version 1.126.2](https://github.com/lobehub/lobe-chat/compare/v1.126.1...v1.126.2)
6
65
 
7
66
  <sup>Released on **2025-09-09**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,25 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "features": [
5
+ "Seedream 4.0."
6
+ ],
7
+ "improvements": [
8
+ "Add hotkey tooltip to typobar actions."
9
+ ]
10
+ },
11
+ "date": "2025-09-10",
12
+ "version": "1.127.0"
13
+ },
14
+ {
15
+ "children": {
16
+ "improvements": [
17
+ "Add CometAPI model provider and chat models, update i18n."
18
+ ]
19
+ },
20
+ "date": "2025-09-10",
21
+ "version": "1.126.3"
22
+ },
2
23
  {
3
24
  "children": {
4
25
  "fixes": [
@@ -646,9 +646,9 @@ If you need to use Azure OpenAI to provide model services, you can refer to the
646
646
  - Type: Optional
647
647
  - Description: Used to control the FAL model list. Use `+` to add a model, `-` to hide a model, and `model_name=display_name` to customize the display name of a model. Separate multiple entries with commas. The definition syntax follows the same rules as other providers' model lists.
648
648
  - Default: `-`
649
- - Example: `-all,+flux/schnell,+flux-pro/kontext=FLUX.1 Kontext [pro]`
649
+ - Example: `-all,+fal-ai/flux/schnell,+fal-ai/flux-pro/kontext=FLUX.1 Kontext [pro]`
650
650
 
651
- The above example disables all models first, then enables `flux/schnell` and `flux-pro/kontext` (displayed as `FLUX.1 Kontext [pro]`).
651
+ The above example disables all models first, then enables `fal-ai/flux/schnell` and `fal-ai/flux-pro/kontext` (displayed as `FLUX.1 Kontext [pro]`).
652
652
 
653
653
  ## BFL
654
654
 
@@ -645,9 +645,9 @@ LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,
645
645
  - 类型:可选
646
646
  - 描述:用来控制 FAL 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
647
647
  - 默认值:`-`
648
- - 示例:`-all,+flux/schnell,+flux-pro/kontext=FLUX.1 Kontext [pro]`
648
+ - 示例:`-all,+fal-ai/flux/schnell,+fal-ai/flux-pro/kontext=FLUX.1 Kontext [pro]`
649
649
 
650
- 上述示例表示先禁用所有模型,再启用 `flux/schnell` 和 `flux-pro/kontext`(显示名为 `FLUX.1 Kontext [pro]`)。
650
+ 上述示例表示先禁用所有模型,再启用 `fal-ai/flux/schnell` 和 `fal-ai/flux-pro/kontext`(显示名为 `FLUX.1 Kontext [pro]`)。
651
651
 
652
652
  ## BFL
653
653
 
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "النموذج الأول محليًا، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط الرائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS هي سلسلة من نماذج اللغة الكبيرة مفتوحة المصدر التي طورتها فريق Seed في شركة ByteDance، مصممة خصيصًا لمعالجة السياقات الطويلة القوية، والاستدلال، والوكيل الذكي (agent)، والقدرات العامة. النموذج Seed-OSS-36B-Instruct في هذه السلسلة هو نموذج ضبط دقيق للتعليمات يحتوي على 36 مليار معلمة، ويدعم بطبيعته سياقات فائقة الطول، مما يمكنه من معالجة كميات هائلة من الوثائق أو قواعد الشيفرة المعقدة دفعة واحدة. تم تحسين هذا النموذج بشكل خاص لمهام الاستدلال، وتوليد الشيفرة، ومهام الوكيل (مثل استخدام الأدوات)، مع الحفاظ على توازن وقدرات عامة ممتازة. من الميزات البارزة لهذا النموذج وظيفة \"ميزانية التفكير\" التي تسمح للمستخدمين بضبط طول الاستدلال بمرونة حسب الحاجة، مما يعزز كفاءة الاستدلال في التطبيقات العملية."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "نموذج LLM المتقدم والفعال، بارع في الاستدلال والرياضيات والبرمجة."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "مزود النموذج: منصة sophnet. DeepSeek V3 Fast هو النسخة السريعة عالية TPS من إصدار DeepSeek V3 0324، غير مكوّن بالكامل، يتمتع بقدرات برمجية ورياضية أقوى واستجابة أسرع!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد أطلقته DeepSeek، يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تم تعزيز استخدام أدوات الوكيل وأداء مهام الوكيل بشكل كبير."
87
+ "description": "DeepSeek-V3.1 - وضع عدم التفكير؛ DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تحسنت بشكل كبير أداء استخدام أدوات الوكيل ومهام الوكيل الذكي."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast هو النسخة عالية الأداء من DeepSeek V3.1 مع معدل معاملات في الثانية (TPS) مرتفع. وضع التفكير الهجين: من خلال تغيير قالب المحادثة، يمكن لنموذج واحد دعم وضعي التفكير وعدم التفكير في نفس الوقت. استدعاء أدوات أكثر ذكاءً: بفضل تحسين ما بعد التدريب، تحسن أداء النموذج بشكل ملحوظ في استخدام الأدوات ومهام الوكيل."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - وضع التفكير؛ DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تحسنت بشكل كبير أداء استخدام أدوات الوكيل ومهام الوكيل الذكي."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite يتميز بسرعة استجابة فائقة وقيمة أفضل مقابل المال، ويوفر خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتخصيص مع نافذة سياق 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "الأمر-r7b-12-2024 هو إصدار صغير وفعال تم إصداره في ديسمبر 2024. يظهر أداءً ممتازًا في المهام التي تتطلب استدلالًا معقدًا ومعالجة متعددة الخطوات مثل RAG، واستخدام الأدوات، والوكالات."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta هو نظام ذكاء اصطناعي مركب، مدعوم بعدة نماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini هو نظام ذكاء اصطناعي مركب، مدعوم بنماذج مفتوحة متاحة في GroqCloud، يمكنه استخدام الأدوات بشكل ذكي وانتقائي للإجابة على استفسارات المستخدمين."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "نموذج computer-use-preview هو نموذج مخصص لأدوات \"استخدام الحاسوب\"، تم تدريبه لفهم وتنفيذ المهام المتعلقة بالحاسوب."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "نموذج Doubao-Seed-1.6-thinking يعزز قدرات التفكير بشكل كبير، مقارنة بـ Doubao-1.5-thinking-pro، مع تحسينات إضافية في القدرات الأساسية مثل البرمجة والرياضيات والاستدلال المنطقي، ويدعم الفهم البصري. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 16k رمز."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "نموذج التفكير العميق البصري Doubao-Seed-1.6-vision، يظهر قدرة فهم واستدلال متعددة الوسائط عامة أقوى في سيناريوهات التعليم، مراجعة الصور، التفتيش والأمن، والبحث والإجابة بالذكاء الاصطناعي. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 64k رمزًا."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "نموذج توليد الصور Doubao طوره فريق Seed في ByteDance، يدعم إدخال النص والصورة، ويوفر تجربة توليد صور عالية الجودة وقابلة للتحكم. يولد الصور بناءً على أوامر نصية."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) يوفر قدرة أساسية على معالجة التعليمات، مناسب للتطبيقات الخفيفة."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B هو نموذج لغة مفتوح المصدر من جوجل، وضع معايير جديدة في الكفاءة والأداء."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B هو نموذج لغة مفتوح المصدر من جوجل، وضع معايير جديدة في الكفاءة والأداء."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "نحن سعداء بإطلاق grok-code-fast-1، وهو نموذج استدلال سريع وفعال من حيث التكلفة، يتميز بأداء ممتاز في ترميز الوكلاء."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم من عدة نماذج متاحة مفتوحة المصدر في GroqCloud، يمكنه استخدام الأدوات بذكاء وباختيار للرد على استفسارات المستخدمين."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم من نماذج متاحة مفتوحة المصدر في GroqCloud، يمكنه استخدام الأدوات بذكاء وباختيار للرد على استفسارات المستخدمين."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "تحسين كبير في القدرات الرياضية، المنطقية والبرمجية عالية الصعوبة، مع تحسين استقرار مخرجات النموذج وتعزيز قدرات النصوص الطويلة."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "أول نموذج استدلال هجين ضخم في الصناعة، يوسع قدرات الاستدلال، بسرعة فك تشفير فائقة، ويعزز التوافق مع تفضيلات البشر."
1677
+ "description": "تحسين كبير لقدرات نموذج التفكير البطيء الرئيسي في الرياضيات الصعبة، الاستدلال المعقد، الشيفرة الصعبة، الالتزام بالتعليمات، وجودة إنشاء النصوص."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "نموذج تفكير عميق متعدد الوسائط من Hunyuan، يدعم سلاسل التفكير الأصلية متعددة الوسائط، بارع في معالجة مختلف سيناريوهات الاستدلال على الصور، ويحقق تحسينًا شاملاً مقارنة بنموذج التفكير السريع في مسائل العلوم."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات قوية للغاية في البرمجة وقدرات الوكيل (Agent)، بإجمالي معلمات يبلغ 1 تريليون والمعلمات المُفعَّلة 32 مليار. في اختبارات الأداء المعيارية للفئات الرئيسية مثل الاستدلال المعرفي العام والبرمجة والرياضيات والوكلاء (Agent)، تفوق أداء نموذج K2 على النماذج المفتوحة المصدر السائدة الأخرى."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE يتمتع بقدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 هو نموذج أساسي مبني على بنية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء المعيارية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "نموذج كود Tongyi Qianwen. أحدث سلسلة نماذج Qwen3-Coder مبنية على Qwen3 لتوليد الأكواد، تتمتع بقدرات وكيل ترميز قوية، بارعة في استدعاء الأدوات والتفاعل مع البيئة، قادرة على البرمجة الذاتية، وتجمع بين مهارات برمجية ممتازة وقدرات عامة."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "نسخة المعاينة لنموذج Qwen 3 Max من سلسلة Tongyi Qianwen، مع تحسينات كبيرة في القدرات العامة مقارنة بسلسلة 2.5، بما في ذلك فهم النصوص العامة باللغتين الصينية والإنجليزية، الالتزام بالتعليمات المعقدة، المهام المفتوحة الذاتية، القدرات متعددة اللغات، واستدعاء الأدوات؛ مع تقليل الأوهام المعرفية للنموذج."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ هو نموذج بحث تجريبي يركز على تحسين قدرات الاستدلال للذكاء الاصطناعي."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS е серия от отворени големи езикови модели, разработени от екипа Seed на ByteDance, специално проектирани за мощна обработка на дълъг контекст, разсъждения, агенти и универсални способности. Seed-OSS-36B-Instruct в тази серия е модел с 36 милиарда параметри, фино настроен за инструкции, който поддържа естествено изключително дълъг контекст, позволявайки му да обработва големи документи или сложни кодови бази наведнъж. Моделът е специално оптимизиран за разсъждения, генериране на код и задачи с агенти (като използване на инструменти), като същевременно поддържа балансирани и отлични универсални способности. Една от ключовите характеристики на този модел е функцията „Бюджет за мислене“ (Thinking Budget), която позволява на потребителите гъвкаво да регулират дължината на разсъжденията според нуждите, което ефективно повишава ефективността при реални приложения."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "Най-напредналият ефективен LLM, специализиран в разсъждения, математика и програмиране."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Доставчик на модела: платформа sophnet. DeepSeek V3 Fast е високоскоростната версия с висока TPS на DeepSeek V3 0324, с пълна точност без квантизация, с по-силни кодови и математически възможности и по-бърз отговор!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 е новият хибриден модел за разсъждение на DeepSeek, който поддържа два режима на разсъждение: мислене и немислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация чрез пост-тренировка, използването на агентски инструменти и изпълнението на задачи от интелигентни агенти са значително подобрени."
87
+ "description": "DeepSeek-V3.1 - режим без мислене; DeepSeek-V3.1 е нов хибриден модел за разсъждения, пуснат от DeepSeek, който поддържа два режима на разсъждения - с и без мислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация след обучение, използването на инструменти от агенти и изпълнението на задачи с агенти са значително подобрени."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast е високопроизводителната версия с висока TPS на DeepSeek V3.1. Хибриден режим на мислене: чрез промяна на шаблона за чат, един модел може да поддържа едновременно режим с мислене и без мислене. По-интелигентно извикване на инструменти: чрез оптимизация след обучение, представянето на модела при използване на инструменти и задачи с агенти е значително подобрено."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - режим с мислене; DeepSeek-V3.1 е нов хибриден модел за разсъждения, пуснат от DeepSeek, който поддържа два режима на разсъждения - с и без мислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация след обучение, използването на инструменти от агенти и изпълнението на задачи с агенти са значително подобрени."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite предлага изключително бърза реакция и по-добро съотношение цена-качество, осигурявайки по-гъвкави опции за различни сценарии на клиентите. Поддържа разсъждения и финна настройка с контекстен прозорец от 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 е малка и ефективна актуализирана версия, пусната през декември 2024 г. Тя показва отлични резултати в задачи, изискващи сложни разсъждения и многократна обработка, като RAG, използване на инструменти и агенти."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta е композитна AI система, подкрепена от множество отворени модели, налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на запитвания на потребителите."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini е композитна AI система, подкрепена от публично достъпни модели в GroqCloud, която интелигентно и селективно използва инструменти за отговор на запитвания на потребителите."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Моделът computer-use-preview е специално разработен за „инструменти за използване на компютър“, обучен да разбира и изпълнява задачи, свързани с компютри."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Doubao-Seed-1.6-thinking моделът значително подобрява способностите за мислене в сравнение с Doubao-1.5-thinking-pro, с допълнителни подобрения в кодиране, математика и логическо разсъждение, като поддържа и визуално разбиране. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 16k токена."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision е визуален модел за дълбоко мислене, който демонстрира по-силни универсални мултимодални разбирания и способности за разсъждение в сценарии като образование, преглед на изображения, инспекции и сигурност, както и AI търсене и отговори. Поддържа контекстен прозорец от 256k и максимална дължина на изхода до 64k токена."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Моделът за генериране на изображения Doubao е разработен от екипа Seed на ByteDance, поддържа вход както от текст, така и от изображения, и предлага високо контролирано и качествено генериране на изображения. Генерира изображения въз основа на текстови подсказки."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) предлага основни способности за обработка на инструкции, подходящи за леки приложения."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B е отворен езиков модел на Google, който поставя нови стандарти за ефективност и производителност."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B е отворен езиков модел на Google, който поставя нови стандарти за ефективност и производителност."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "С удоволствие представяме grok-code-fast-1, бърз и икономичен модел за извод, който се отличава с отлични резултати при кодиране на агенти."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound е сложна AI система, поддържана от множество отворени модели, вече налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на потребителски запитвания."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini е сложна AI система, поддържана от публично достъпни модели, вече налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на потребителски запитвания."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Значително подобрени способности в сложна математика, логика и кодиране, оптимизирана стабилност на изхода и подобрена работа с дълги текстове."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Първият в индустрията свръхголям хибриден трансформаторен модел за инференция, който разширява инференционните способности, предлага изключителна скорост на декодиране и допълнително съгласува човешките предпочитания."
1677
+ "description": "Значително подобрява способностите на основния модел за бавно мислене при сложна математика, комплексни разсъждения, труден код, спазване на инструкции и качество на текстовото творчество."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Модел за дълбоко мултимодално разбиране Hunyuan, поддържащ естествени мултимодални вериги на мислене, експертен в различни сценарии за разсъждение върху изображения, с цялостно подобрение спрямо бързите мисловни модели при научни задачи."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 е базов модел с MoE архитектура с изключителни способности за кодиране и агентски функции, с общо 1 трилион параметри и 32 милиарда активни параметри. В тестове за общо знание, програмиране, математика и агентски задачи, моделът K2 превъзхожда други водещи отворени модели."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "Kimi-k2 е базов модел с MoE архитектура, който притежава изключителни възможности за работа с код и агентни функции. Общият брой параметри е 1T, а активните параметри са 32B. В бенчмарковете за основни категории като общо знание и разсъждение, програмиране, математика и агентни задачи, моделът K2 превъзхожда другите водещи отворени модели."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 е базов модел с MoE архитектура, с изключителни кодови и агентски способности, общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 е базов модел с MoE архитектура с изключителни способности за кодиране и агент, с общо 1 трилион параметри и 32 милиарда активни параметри. В бенчмаркови тестове за общи знания, програмиране, математика и агенти, моделът K2 превъзхожда други водещи отворени модели."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Кодиращ модел на Tongyi Qianwen. Най-новата серия модели Qwen3-Coder е базирана на Qwen3 и е модел за генериране на код с мощни възможности на Coding Agent, умеещ да използва инструменти и да взаимодейства с околната среда, способен на автономно програмиране, с изключителни кодови умения и същевременно общи способности."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Preview версия на Max модела от серията Qwen 3, с голямо подобрение спрямо серия 2.5 в общите универсални способности, разбиране на текст на китайски и английски, следване на сложни инструкции, субективни отворени задачи, многоезични способности и използване на инструменти; моделът има по-малко халюцинации на знания."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ е експериментален изследователски модел, който се фокусира върху подобряване на AI разсъдъчните способности."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Das Modell hat die höchste Leistungsfähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativen Generierungen auf Chinesisch. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren anerkannten Bewertungsbenchmarks hervorragende Leistungen."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS ist eine von ByteDance Seed entwickelten Reihe von Open-Source-Großsprachmodellen, die speziell für leistungsstarke Langkontextverarbeitung, Schlussfolgerungen, Agenten und allgemeine Fähigkeiten konzipiert sind. Das Modell Seed-OSS-36B-Instruct aus dieser Reihe ist ein feinabgestimmtes Instruktionsmodell mit 36 Milliarden Parametern, das nativ extrem lange Kontextlängen unterstützt, wodurch es in der Lage ist, umfangreiche Dokumente oder komplexe Codebasen auf einmal zu verarbeiten. Dieses Modell ist besonders für Schlussfolgerungen, Codegenerierung und Agentenaufgaben (wie Werkzeugnutzung) optimiert und bewahrt dabei eine ausgewogene und hervorragende allgemeine Leistungsfähigkeit. Ein herausragendes Merkmal dieses Modells ist die Funktion \"Thinking Budget\", die es Nutzern ermöglicht, die Schlussfolgerungslänge flexibel anzupassen, um die Effizienz in praktischen Anwendungen effektiv zu steigern."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "Ein hochmodernes, effizientes LLM, das sich auf Schlussfolgerungen, Mathematik und Programmierung spezialisiert hat."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Modellanbieter: sophnet-Plattform. DeepSeek V3 Fast ist die Hochgeschwindigkeitsversion mit hohem TPS des DeepSeek V3 0324 Modells, voll funktionsfähig ohne Quantisierung, mit stärkerer Code- und mathematischer Leistungsfähigkeit und schnellerer Reaktionszeit!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denkmodus und Nicht-Denkmodus. Es ist effizienter im Denkprozess als DeepSeek-R1-0528. Durch Post-Training-Optimierung wurden die Nutzung von Agenten-Tools und die Leistung bei Agentenaufgaben erheblich verbessert."
87
+ "description": "DeepSeek-V3.1 - Nicht-Denkmodus; DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denk- und Nicht-Denkmodus, mit höherer Denkeffizienz im Vergleich zu DeepSeek-R1-0528. Durch Post-Training-Optimierung wurde die Leistung bei Agenten-Werkzeugnutzung und Agentenaufgaben deutlich verbessert."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast ist die Hochgeschwindigkeitsversion von DeepSeek V3.1 mit hoher TPS. Hybrid-Denkmodus: Durch Änderung der Chat-Vorlage kann ein Modell sowohl Denk- als auch Nicht-Denkmodus gleichzeitig unterstützen. Intelligenterer Werkzeugaufruf: Durch Post-Training-Optimierung wurde die Leistung des Modells bei Werkzeugnutzung und Agentenaufgaben signifikant verbessert."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - Denkmodus; DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denk- und Nicht-Denkmodus, mit höherer Denkeffizienz im Vergleich zu DeepSeek-R1-0528. Durch Post-Training-Optimierung wurde die Leistung bei Agenten-Werkzeugnutzung und Agentenaufgaben deutlich verbessert."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite bietet extrem schnelle Reaktionszeiten und ein hervorragendes Preis-Leistungs-Verhältnis, um Kunden in verschiedenen Szenarien flexiblere Optionen zu bieten. Unterstützt Inferenz und Feintuning mit einem Kontextfenster von 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 ist eine kompakte und effiziente aktualisierte Version, die im Dezember 2024 veröffentlicht wurde. Es zeigt hervorragende Leistungen in Aufgaben, die komplexes Denken und mehrstufige Verarbeitung erfordern, wie RAG, Werkzeugnutzung und Agenten."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta ist ein hybrides KI-System, das von mehreren öffentlich verfügbaren Modellen in GroqCloud unterstützt wird und intelligent und selektiv Werkzeuge zur Beantwortung von Benutzeranfragen einsetzt."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini ist ein hybrides KI-System, das von öffentlich verfügbaren Modellen in GroqCloud unterstützt wird und intelligent und selektiv Werkzeuge zur Beantwortung von Benutzeranfragen einsetzt."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Das Modell computer-use-preview ist ein speziell für „Computeranwendungstools“ entwickeltes Modell, das darauf trainiert wurde, computerbezogene Aufgaben zu verstehen und auszuführen."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Das Doubao-Seed-1.6-thinking Modell verfügt über stark verbesserte Denkfähigkeiten. Im Vergleich zu Doubao-1.5-thinking-pro wurden die Grundfähigkeiten in Coding, Mathematik und logischem Denken weiter verbessert und unterstützt visuelles Verständnis. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 16k Tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision ist ein visuelles Tiefdenkmodell, das in Szenarien wie Bildung, Bildprüfung, Inspektion und Sicherheit sowie KI-Suchfragen eine stärkere allgemeine multimodale Verständnis- und Schlussfolgerungsfähigkeit zeigt. Unterstützt ein Kontextfenster von 256k und eine maximale Ausgabelänge von 64k Tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Das Doubao-Bildgenerierungsmodell wurde vom ByteDance Seed Team entwickelt und unterstützt sowohl Text- als auch Bildeingaben, um eine hochgradig kontrollierbare und qualitativ hochwertige Bildgenerierung zu bieten. Es erzeugt Bilder basierend auf Text-Prompts."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) bietet grundlegende Anweisungsverarbeitungsfähigkeiten und eignet sich für leichte Anwendungen."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Wir freuen uns, grok-code-fast-1 vorzustellen, ein schnelles und kosteneffizientes Inferenzmodell, das sich durch hervorragende Leistung bei der Agentencodierung auszeichnet."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound ist ein zusammengesetztes KI-System, das von mehreren bereits in GroqCloud unterstützten öffentlich verfügbaren Modellen getragen wird und intelligent sowie selektiv Werkzeuge zur Beantwortung von Nutzeranfragen einsetzt."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini ist ein zusammengesetztes KI-System, das von öffentlich verfügbaren Modellen unterstützt wird, die bereits in GroqCloud verfügbar sind, und intelligent sowie selektiv Werkzeuge zur Beantwortung von Nutzeranfragen einsetzt."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Erhebliche Verbesserungen bei anspruchsvoller Mathematik, Logik und Programmierfähigkeiten, Optimierung der Modellstabilität und Steigerung der Leistungsfähigkeit bei langen Texten."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Das erste ultra-skalierbare Hybrid-Transformer-Mamba-Inferenzmodell der Branche, das die Inferenzfähigkeiten erweitert, eine extrem hohe Dekodierungsgeschwindigkeit bietet und weiter auf menschliche Präferenzen abgestimmt ist."
1677
+ "description": "Erhebliche Verbesserung der Fähigkeiten des Hauptmodells im langsamen Denkmodus bei anspruchsvoller Mathematik, komplexen Schlussfolgerungen, anspruchsvollem Code, Befolgung von Anweisungen und Textkreation."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Hunyuan ist ein multimodales Verständnis- und Tiefdenkmodell, das native multimodale lange Denkprozesse unterstützt. Es ist spezialisiert auf verschiedene Bildinferenzszenarien und zeigt im Vergleich zu Schnelldenkmodellen umfassende Verbesserungen bei naturwissenschaftlichen Problemen."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 ist ein MoE-Architektur-Basis-Modell mit außergewöhnlichen Fähigkeiten in Code und Agentenfunktionen, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 ist ein Basis-Modell mit MoE-Architektur und besonders starken Fähigkeiten im Bereich Code und Agenten. Es verfügt über insgesamt 1T Parameter und 32B aktivierte Parameter. In Benchmark-Tests der wichtigsten Kategorien – allgemeines Wissens-Reasoning, Programmierung, Mathematik und Agenten – übertrifft das K2-Modell die Leistung anderer gängiger Open‑Source‑Modelle."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 ist ein MoE-Basis-Modell mit herausragenden Code- und Agentenfähigkeiten, insgesamt 1 Billion Parameter und 32 Milliarden aktivierten Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agentenaufgaben übertrifft das K2-Modell andere führende Open-Source-Modelle."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 ist ein MoE-Architektur-Basismodell mit außergewöhnlichen Fähigkeiten in Code und Agenten, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Tongyi Qianwen Code-Modell. Die neueste Qwen3-Coder Modellreihe basiert auf Qwen3 und ist ein Code-Generierungsmodell mit starker Coding-Agent-Fähigkeit, spezialisiert auf Werkzeugaufrufe und Umgebungsinteraktion, das selbstständiges Programmieren ermöglicht und neben hervorragenden Code-Fähigkeiten auch allgemeine Kompetenzen besitzt."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Die Preview-Version des Max-Modells der Tongyi Qianwen 3-Serie zeigt im Vergleich zur 2.5-Serie eine deutliche Steigerung der allgemeinen Fähigkeiten, einschließlich verbesserter chinesisch- und englischsprachiger Textverständnisfähigkeiten, komplexer Befolgung von Anweisungen, subjektiver offener Aufgaben, Mehrsprachigkeit und Werkzeugaufruf-Fähigkeiten; das Modell zeigt weniger Wissenshalluzinationen."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ ist ein experimentelles Forschungsmodell, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert."
2554
2581
  },