@lobehub/chat 1.134.0 → 1.134.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -30,7 +30,7 @@ jobs:
30
30
 
31
31
  steps:
32
32
  - name: Checkout repository
33
- uses: actions/checkout@v4
33
+ uses: actions/checkout@v5
34
34
  with:
35
35
  fetch-depth: 1
36
36
 
@@ -16,7 +16,7 @@ jobs:
16
16
  runs-on: ubuntu-latest
17
17
  steps:
18
18
  - name: Checkout repository
19
- uses: actions/checkout@v4
19
+ uses: actions/checkout@v5
20
20
 
21
21
  - name: Lock closed issues after 7 days of inactivity
22
22
  uses: actions/github-script@v7
@@ -45,7 +45,7 @@ jobs:
45
45
  run: bun run --filter @lobechat/${{ matrix.package }} test:coverage
46
46
 
47
47
  - name: Upload ${{ matrix.package }} coverage to Codecov
48
- uses: codecov/codecov-action@v4
48
+ uses: codecov/codecov-action@v5
49
49
  with:
50
50
  token: ${{ secrets.CODECOV_TOKEN }}
51
51
  files: ./packages/${{ matrix.package }}/coverage/lcov.info
@@ -80,7 +80,7 @@ jobs:
80
80
  run: bun run --filter ${{ matrix.package }} test:coverage
81
81
 
82
82
  - name: Upload ${{ matrix.package }} coverage to Codecov
83
- uses: codecov/codecov-action@v4
83
+ uses: codecov/codecov-action@v5
84
84
  with:
85
85
  token: ${{ secrets.CODECOV_TOKEN }}
86
86
  files: ./packages/${{ matrix.package }}/coverage/lcov.info
@@ -113,7 +113,7 @@ jobs:
113
113
  run: bun run test-app:coverage
114
114
 
115
115
  - name: Upload App Coverage to Codecov
116
- uses: codecov/codecov-action@v4
116
+ uses: codecov/codecov-action@v5
117
117
  with:
118
118
  token: ${{ secrets.CODECOV_TOKEN }}
119
119
  files: ./coverage/app/lcov.info
@@ -174,7 +174,7 @@ jobs:
174
174
  APP_URL: https://home.com
175
175
 
176
176
  - name: Upload Database coverage to Codecov
177
- uses: codecov/codecov-action@v4
177
+ uses: codecov/codecov-action@v5
178
178
  with:
179
179
  token: ${{ secrets.CODECOV_TOKEN }}
180
180
  files: ./packages/database/coverage/lcov.info
package/CHANGELOG.md CHANGED
@@ -2,6 +2,56 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.134.2](https://github.com/lobehub/lobe-chat/compare/v1.134.1...v1.134.2)
6
+
7
+ <sup>Released on **2025-10-05**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Allow switching model `type`.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Allow switching model `type`, closes [#9529](https://github.com/lobehub/lobe-chat/issues/9529) ([9b62685](https://github.com/lobehub/lobe-chat/commit/9b62685))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ### [Version 1.134.1](https://github.com/lobehub/lobe-chat/compare/v1.134.0...v1.134.1)
31
+
32
+ <sup>Released on **2025-10-05**</sup>
33
+
34
+ #### 💄 Styles
35
+
36
+ - **misc**: Update i18n.
37
+
38
+ <br/>
39
+
40
+ <details>
41
+ <summary><kbd>Improvements and Fixes</kbd></summary>
42
+
43
+ #### Styles
44
+
45
+ - **misc**: Update i18n, closes [#9546](https://github.com/lobehub/lobe-chat/issues/9546) ([ed8174f](https://github.com/lobehub/lobe-chat/commit/ed8174f))
46
+
47
+ </details>
48
+
49
+ <div align="right">
50
+
51
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
52
+
53
+ </div>
54
+
5
55
  ## [Version 1.134.0](https://github.com/lobehub/lobe-chat/compare/v1.133.6...v1.134.0)
6
56
 
7
57
  <sup>Released on **2025-10-04**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,22 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Allow switching model type."
6
+ ]
7
+ },
8
+ "date": "2025-10-05",
9
+ "version": "1.134.2"
10
+ },
11
+ {
12
+ "children": {
13
+ "improvements": [
14
+ "Update i18n."
15
+ ]
16
+ },
17
+ "date": "2025-10-05",
18
+ "version": "1.134.1"
19
+ },
2
20
  {
3
21
  "children": {
4
22
  "features": [
@@ -92,6 +92,12 @@
92
92
  "DeepSeek-V3.1-Think": {
93
93
  "description": "DeepSeek-V3.1 - وضع التفكير؛ DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تحسنت بشكل كبير أداء استخدام أدوات الوكيل ومهام الوكيل الذكي."
94
94
  },
95
+ "DeepSeek-V3.2-Exp": {
96
+ "description": "DeepSeek V3.2 هو أحدث نموذج عام أصدرته DeepSeek، يدعم بنية استدلال هجينة، ويتميز بقدرات وكيل أقوى."
97
+ },
98
+ "DeepSeek-V3.2-Exp-Think": {
99
+ "description": "وضع التفكير في DeepSeek V3.2. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من الأفكار لتحسين دقة الإجابة النهائية."
100
+ },
95
101
  "Doubao-lite-128k": {
96
102
  "description": "Doubao-lite يتميز بسرعة استجابة فائقة وقيمة أفضل مقابل المال، ويوفر خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتخصيص مع نافذة سياق 128k."
97
103
  },
@@ -287,6 +293,9 @@
287
293
  "Pro/deepseek-ai/DeepSeek-V3.1": {
288
294
  "description": "DeepSeek-V3.1 هو نموذج لغة كبير بنمط هجين أصدرته DeepSeek AI، وقد شهد ترقيات مهمة متعددة مقارنة بالإصدارات السابقة. من الابتكارات الرئيسية في هذا النموذج دمج \"وضع التفكير\" و\"وضع عدم التفكير\" في نموذج واحد، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر تعديل قالب المحادثة لتلبية متطلبات المهام المختلفة. من خلال تحسينات ما بعد التدريب المخصصة، تم تعزيز أداء V3.1 في استدعاء الأدوات ومهام الوكيل بشكل ملحوظ، مما يمكنه من دعم أدوات البحث الخارجية وتنفيذ مهام معقدة متعددة الخطوات بشكل أفضل. يعتمد النموذج على DeepSeek-V3.1-Base مع تدريب إضافي، حيث تم توسيع حجم بيانات التدريب بشكل كبير عبر طريقة التوسيع النصي الطويل على مرحلتين، مما يحسن أدائه في معالجة المستندات الطويلة والرموز البرمجية الطويلة. كنموذج مفتوح المصدر، يظهر DeepSeek-V3.1 قدرة تنافسية مع أفضل النماذج المغلقة في مجالات الترميز والرياضيات والاستدلال، وبفضل هيكله المختلط للخبراء (MoE)، يحافظ على سعة نموذج ضخمة مع تقليل تكلفة الاستدلال بفعالية."
289
295
  },
296
+ "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
297
+ "description": "DeepSeek-V3.1-Terminus هو نسخة محدثة من نموذج V3.1 الذي أصدرته DeepSeek، ويصنف كنموذج لغة كبير لوكيل هجين. يركز هذا التحديث على إصلاح المشكلات التي أبلغ عنها المستخدمون وتحسين الاستقرار مع الحفاظ على القدرات الأصلية للنموذج. لقد حسّن بشكل ملحوظ اتساق اللغة، وقلل من الاستخدام المختلط للغة الصينية والإنجليزية والرموز غير الطبيعية. يدمج النموذج \"وضع التفكير\" و\"الوضع غير التفكيري\"، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر قوالب الدردشة لتناسب مهام مختلفة. كتحسين مهم، عزز V3.1-Terminus أداء وكيل الكود ووكيل البحث، مما يجعله أكثر موثوقية في استدعاء الأدوات وتنفيذ المهام المعقدة متعددة الخطوات."
298
+ },
290
299
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
291
300
  "description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
292
301
  },
@@ -926,6 +935,9 @@
926
935
  "deepseek-ai/DeepSeek-V3.1": {
927
936
  "description": "DeepSeek-V3.1 هو نموذج لغة كبير بنمط هجين أصدرته DeepSeek AI، وقد شهد ترقيات مهمة متعددة مقارنة بالإصدارات السابقة. من الابتكارات الرئيسية في هذا النموذج دمج \"وضع التفكير\" و\"وضع عدم التفكير\" في نموذج واحد، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر تعديل قالب المحادثة لتلبية متطلبات المهام المختلفة. من خلال تحسينات ما بعد التدريب المخصصة، تم تعزيز أداء V3.1 في استدعاء الأدوات ومهام الوكيل بشكل ملحوظ، مما يمكنه من دعم أدوات البحث الخارجية وتنفيذ مهام معقدة متعددة الخطوات بشكل أفضل. يعتمد النموذج على DeepSeek-V3.1-Base مع تدريب إضافي، حيث تم توسيع حجم بيانات التدريب بشكل كبير عبر طريقة التوسيع النصي الطويل على مرحلتين، مما يحسن أدائه في معالجة المستندات الطويلة والرموز البرمجية الطويلة. كنموذج مفتوح المصدر، يظهر DeepSeek-V3.1 قدرة تنافسية مع أفضل النماذج المغلقة في مجالات الترميز والرياضيات والاستدلال، وبفضل هيكله المختلط للخبراء (MoE)، يحافظ على سعة نموذج ضخمة مع تقليل تكلفة الاستدلال بفعالية."
928
937
  },
938
+ "deepseek-ai/DeepSeek-V3.1-Terminus": {
939
+ "description": "DeepSeek-V3.1-Terminus هو نسخة محدثة من نموذج V3.1 الذي أصدرته DeepSeek، ويصنف كنموذج لغة كبير لوكيل هجين. يركز هذا التحديث على إصلاح المشكلات التي أبلغ عنها المستخدمون وتحسين الاستقرار مع الحفاظ على القدرات الأصلية للنموذج. لقد حسّن بشكل ملحوظ اتساق اللغة، وقلل من الاستخدام المختلط للغة الصينية والإنجليزية والرموز غير الطبيعية. يدمج النموذج \"وضع التفكير\" و\"الوضع غير التفكيري\"، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر قوالب الدردشة لتناسب مهام مختلفة. كتحسين مهم، عزز V3.1-Terminus أداء وكيل الكود ووكيل البحث، مما يجعله أكثر موثوقية في استدعاء الأدوات وتنفيذ المهام المعقدة متعددة الخطوات."
940
+ },
929
941
  "deepseek-ai/deepseek-llm-67b-chat": {
930
942
  "description": "DeepSeek 67B هو نموذج متقدم تم تدريبه للحوار المعقد."
931
943
  },
@@ -999,7 +1011,7 @@
999
1011
  "description": "DeepSeek R1 النسخة الكاملة، تحتوي على 671 مليار معلمة، تدعم البحث المتصل في الوقت الحقيقي، وتتمتع بقدرات فهم وتوليد أقوى."
1000
1012
  },
1001
1013
  "deepseek-reasoner": {
1002
- "description": "وضع التفكير في DeepSeek V3.1. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
1014
+ "description": "وضع التفكير في DeepSeek V3.2. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من الأفكار لتحسين دقة الإجابة النهائية."
1003
1015
  },
1004
1016
  "deepseek-v2": {
1005
1017
  "description": "DeepSeek V2 هو نموذج لغوي فعال من نوع Mixture-of-Experts، مناسب لاحتياجات المعالجة الاقتصادية."
@@ -1352,24 +1364,36 @@
1352
1364
  "gemini-2.5-flash": {
1353
1365
  "description": "Gemini 2.5 Flash هو نموذج Google الأكثر فعالية من حيث التكلفة، ويوفر وظائف شاملة."
1354
1366
  },
1367
+ "gemini-2.5-flash-image": {
1368
+ "description": "Nano Banana هو أحدث وأسرع وأكثر نموذج متعدد الوسائط أصلي كفاءة من Google، يتيح لك إنشاء وتحرير الصور من خلال المحادثة."
1369
+ },
1355
1370
  "gemini-2.5-flash-image-preview": {
1356
1371
  "description": "Nano Banana هو أحدث وأسرع وأكثر نموذج متعدد الوسائط أصلي كفاءة من Google، يتيح لك إنشاء وتحرير الصور من خلال المحادثة."
1357
1372
  },
1358
1373
  "gemini-2.5-flash-image-preview:image": {
1359
1374
  "description": "Nano Banana هو أحدث وأسرع وأكثر نموذج متعدد الوسائط أصلي كفاءة من Google، يتيح لك إنشاء وتحرير الصور من خلال المحادثة."
1360
1375
  },
1376
+ "gemini-2.5-flash-image:image": {
1377
+ "description": "Nano Banana هو أحدث وأسرع وأكثر نموذج متعدد الوسائط أصلي كفاءة من Google، يتيح لك إنشاء وتحرير الصور من خلال المحادثة."
1378
+ },
1361
1379
  "gemini-2.5-flash-lite": {
1362
1380
  "description": "Gemini 2.5 Flash-Lite هو أصغر وأفضل نموذج من حيث التكلفة من Google، مصمم للاستخدام على نطاق واسع."
1363
1381
  },
1364
1382
  "gemini-2.5-flash-lite-preview-06-17": {
1365
1383
  "description": "Gemini 2.5 Flash-Lite Preview هو أصغر وأكفأ نموذج من Google، مصمم للاستخدام واسع النطاق."
1366
1384
  },
1385
+ "gemini-2.5-flash-lite-preview-09-2025": {
1386
+ "description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash-Lite"
1387
+ },
1367
1388
  "gemini-2.5-flash-preview-04-17": {
1368
1389
  "description": "معاينة فلاش جمنّي 2.5 هي النموذج الأكثر كفاءة من جوجل، حيث تقدم مجموعة شاملة من الميزات."
1369
1390
  },
1370
1391
  "gemini-2.5-flash-preview-05-20": {
1371
1392
  "description": "Gemini 2.5 Flash Preview هو نموذج Google الأكثر فعالية من حيث التكلفة، يقدم وظائف شاملة."
1372
1393
  },
1394
+ "gemini-2.5-flash-preview-09-2025": {
1395
+ "description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash"
1396
+ },
1373
1397
  "gemini-2.5-pro": {
1374
1398
  "description": "Gemini 2.5 Pro هو نموذج التفكير الأكثر تقدمًا من Google، قادر على استدلال المشكلات المعقدة في البرمجة والرياضيات ومجالات STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة ومستودعات الأكواد والوثائق باستخدام سياق طويل."
1375
1399
  },
@@ -1382,6 +1406,15 @@
1382
1406
  "gemini-2.5-pro-preview-06-05": {
1383
1407
  "description": "جيميني 2.5 برو بريڤيو هو أحدث نموذج تفكيري من جوجل، قادر على استنتاج حلول للمشكلات المعقدة في مجالات البرمجة، الرياضيات، والعلوم والتكنولوجيا والهندسة والرياضيات (STEM)، بالإضافة إلى تحليل مجموعات بيانات كبيرة، قواعد بيانات البرمجة، والوثائق باستخدام سياق طويل."
1384
1408
  },
1409
+ "gemini-flash-latest": {
1410
+ "description": "أحدث إصدار من Gemini Flash"
1411
+ },
1412
+ "gemini-flash-lite-latest": {
1413
+ "description": "أحدث إصدار من Gemini Flash-Lite"
1414
+ },
1415
+ "gemini-pro-latest": {
1416
+ "description": "أحدث إصدار من Gemini Pro"
1417
+ },
1385
1418
  "gemma-7b-it": {
1386
1419
  "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة."
1387
1420
  },
@@ -1811,12 +1844,12 @@
1811
1844
  "hunyuan-t1-latest": {
1812
1845
  "description": "تحسين كبير لقدرات نموذج التفكير البطيء الرئيسي في الرياضيات الصعبة، الاستدلال المعقد، الشيفرة الصعبة، الالتزام بالتعليمات، وجودة إنشاء النصوص."
1813
1846
  },
1814
- "hunyuan-t1-vision": {
1815
- "description": "نموذج تفكير عميق متعدد الوسائط من Hunyuan، يدعم سلاسل التفكير الأصلية متعددة الوسائط، بارع في معالجة مختلف سيناريوهات الاستدلال على الصور، ويحقق تحسينًا شاملاً مقارنة بنموذج التفكير السريع في مسائل العلوم."
1816
- },
1817
1847
  "hunyuan-t1-vision-20250619": {
1818
1848
  "description": "أحدث نموذج تفكير عميق متعدد الوسائط t1-vision من Hunyuan، يدعم سلسلة التفكير الأصلية متعددة الوسائط، مع تحسين شامل مقارنة بالإصدار الافتراضي السابق."
1819
1849
  },
1850
+ "hunyuan-t1-vision-20250916": {
1851
+ "description": "نموذج تفكير عميق متعدد الوسائط من Hunyuan، يدعم سلاسل تفكير طويلة أصلية متعددة الوسائط، بارع في معالجة مختلف سيناريوهات الاستدلال بالصور، مع تحسين شامل مقارنة بنموذج التفكير السريع في مسائل العلوم."
1852
+ },
1820
1853
  "hunyuan-turbo": {
1821
1854
  "description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
1822
1855
  },
@@ -1838,6 +1871,9 @@
1838
1871
  "hunyuan-turbos-20250604": {
1839
1872
  "description": "ترقية قاعدة التدريب المسبق، مع تحسينات في مهارات الكتابة وفهم القراءة، وزيادة كبيرة في القدرات البرمجية والعلمية، وتحسين مستمر في اتباع التعليمات المعقدة."
1840
1873
  },
1874
+ "hunyuan-turbos-20250926": {
1875
+ "description": "ترقية جودة بيانات قاعدة التدريب المسبق. تحسين استراتيجية التدريب في مرحلة ما بعد التدريب، مع استمرار تحسين قدرات الوكيل، واللغات الإنجليزية واللغات الصغيرة، والامتثال للتعليمات، والبرمجة، والعلوم."
1876
+ },
1841
1877
  "hunyuan-turbos-latest": {
1842
1878
  "description": "hunyuan-TurboS هو أحدث إصدار من نموذج هونيان الرائد، يتمتع بقدرات تفكير أقوى وتجربة أفضل."
1843
1879
  },
@@ -3146,6 +3182,9 @@
3146
3182
  "zai-org/GLM-4.5V": {
3147
3183
  "description": "GLM-4.5V هو نموذج لغوي بصري (VLM) من الجيل الأحدث صدر عن Zhipu AI (智谱 AI). بُني النموذج على نموذج النص الرائد GLM-4.5-Air الذي يحتوي على 106B من المعاملات الإجمالية و12B من معاملات التنشيط، ويعتمد على بنية الخبراء المختلطين (MoE) بهدف تحقيق أداء متميز بتكلفة استدلال أقل. من الناحية التقنية، يواصل GLM-4.5V نهج GLM-4.1V-Thinking ويقدّم ابتكارات مثل ترميز المواقع الدوراني ثلاثي الأبعاد (3D-RoPE)، مما عزّز بشكل ملحوظ قدرته على إدراك واستنتاج العلاقات المكانية ثلاثية الأبعاد. وبفضل تحسينات في مراحل ما قبل التدريب، والتعديل بالإشراف، والتعلّم المعزّز، أصبح النموذج قادراً على معالجة محتوى بصري متنوّع مثل الصور والفيديوهات والمستندات الطويلة، وقد حقق مستوى متقدماً ضمن أفضل نماذج المصدر المفتوح في 41 معياراً متعدد الوسائط منشوراً. بالإضافة إلى ذلك، أضاف النموذج مفتاح \"وضع التفكير\" الذي يتيح للمستخدمين التبديل بين الاستجابة السريعة والاستدلال العميق بحرية لتوازن أفضل بين الكفاءة والفعالية."
3148
3184
  },
3185
+ "zai-org/GLM-4.6": {
3186
+ "description": "مقارنةً بـ GLM-4.5، قدم GLM-4.6 عدة تحسينات رئيسية. تم توسيع نافذة السياق من 128 ألف إلى 200 ألف رمز، مما يمكن النموذج من التعامل مع مهام وكيل أكثر تعقيدًا. حقق النموذج درجات أعلى في اختبارات معيارية للبرمجة، وأظهر أداءً أقوى في تطبيقات مثل Claude Code وCline وRoo Code وKilo Code، بما في ذلك تحسينات في إنشاء صفحات أمامية ذات تأثيرات بصرية متقنة. أظهر GLM-4.6 تحسنًا واضحًا في أداء الاستدلال ويدعم استخدام الأدوات أثناء الاستدلال، مما يعزز قدراته الشاملة. كما أنه أقوى في استخدام الأدوات والوكيل المعتمد على البحث، وأكثر فعالية في التكامل ضمن أطر الوكلاء. من حيث الكتابة، يتوافق النموذج بشكل أفضل مع تفضيلات البشر من حيث الأسلوب وقابلية القراءة، ويظهر سلوكًا أكثر طبيعية في سيناريوهات تمثيل الأدوار."
3187
+ },
3149
3188
  "zai/glm-4.5": {
3150
3189
  "description": "سلسلة نماذج GLM-4.5 هي نماذج أساسية مصممة خصيصًا للوكلاء. النموذج الرائد GLM-4.5 يدمج 355 مليار معلمة إجمالية (32 مليار نشطة)، موحدًا الاستدلال، الترميز، وقدرات الوكيل لتلبية متطلبات التطبيقات المعقدة. كنظام استدلال مختلط، يوفر وضعين تشغيليين."
3151
3190
  },
@@ -92,6 +92,12 @@
92
92
  "DeepSeek-V3.1-Think": {
93
93
  "description": "DeepSeek-V3.1 - режим с мислене; DeepSeek-V3.1 е нов хибриден модел за разсъждения, пуснат от DeepSeek, който поддържа два режима на разсъждения - с и без мислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация след обучение, използването на инструменти от агенти и изпълнението на задачи с агенти са значително подобрени."
94
94
  },
95
+ "DeepSeek-V3.2-Exp": {
96
+ "description": "DeepSeek V3.2 е най-новият универсален голям модел на DeepSeek, който поддържа хибридна архитектура за извод и притежава по-силни възможности на агент."
97
+ },
98
+ "DeepSeek-V3.2-Exp-Think": {
99
+ "description": "Режим на мислене на DeepSeek V3.2. Преди да изведе окончателния отговор, моделът първо генерира мисловна верига, за да подобри точността на крайния отговор."
100
+ },
95
101
  "Doubao-lite-128k": {
96
102
  "description": "Doubao-lite предлага изключително бърза реакция и по-добро съотношение цена-качество, осигурявайки по-гъвкави опции за различни сценарии на клиентите. Поддържа разсъждения и финна настройка с контекстен прозорец от 128k."
97
103
  },
@@ -287,6 +293,9 @@
287
293
  "Pro/deepseek-ai/DeepSeek-V3.1": {
288
294
  "description": "DeepSeek-V3.1 е хибриден голям езиков модел, пуснат от DeepSeek AI, който включва множество важни подобрения спрямо предишните версии. Основната иновация на модела е интеграцията на „режим на мислене“ (Thinking Mode) и „режим без мислене“ (Non-thinking Mode), които потребителите могат гъвкаво да превключват чрез настройка на чат шаблони, за да отговарят на различни задачи. След специална пост-тренировка, V3.1 значително подобрява производителността при използване на инструменти и задачи на агенти, като по-добре поддържа външни търсачки и изпълнение на сложни многостъпкови задачи. Моделът е дообучен върху DeepSeek-V3.1-Base чрез двуфазен метод за разширяване на дълги текстове, което значително увеличава обема на тренировъчните данни и подобрява работата с дълги документи и кодове. Като отворен модел, DeepSeek-V3.1 демонстрира способности, сравними с водещи затворени модели в области като кодиране, математика и разсъждение, като същевременно с хибридната си експертна (MoE) архитектура поддържа голям капацитет на модела и ефективно намалява разходите за изчисления."
289
295
  },
296
+ "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
297
+ "description": "DeepSeek-V3.1-Terminus е обновена версия на модела V3.1, пусната от DeepSeek, позиционирана като хибриден интелигентен голям езиков модел. Тази актуализация запазва оригиналните възможности на модела, като се фокусира върху отстраняване на проблеми, посочени от потребителите, и подобряване на стабилността. Значително е подобрена езиковата последователност, намалено е смесването на китайски и английски и появата на аномални символи. Моделът интегрира „режим на мислене“ и „режим без мислене“, като потребителите могат гъвкаво да превключват между тях чрез чат шаблони за различни задачи. Като важна оптимизация, V3.1-Terminus подобрява производителността на кодовия агент и търсещия агент, което ги прави по-надеждни при извикване на инструменти и изпълнение на многократни сложни задачи."
298
+ },
290
299
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
291
300
  "description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
292
301
  },
@@ -926,6 +935,9 @@
926
935
  "deepseek-ai/DeepSeek-V3.1": {
927
936
  "description": "DeepSeek-V3.1 е хибриден голям езиков модел, пуснат от DeepSeek AI, който включва множество важни подобрения спрямо предишните версии. Основната иновация на модела е интеграцията на „режим на мислене“ (Thinking Mode) и „режим без мислене“ (Non-thinking Mode), които потребителите могат гъвкаво да превключват чрез настройка на чат шаблони, за да отговарят на различни задачи. След специална пост-тренировка, V3.1 значително подобрява производителността при използване на инструменти и задачи на агенти, като по-добре поддържа външни търсачки и изпълнение на сложни многостъпкови задачи. Моделът е дообучен върху DeepSeek-V3.1-Base чрез двуфазен метод за разширяване на дълги текстове, което значително увеличава обема на тренировъчните данни и подобрява работата с дълги документи и кодове. Като отворен модел, DeepSeek-V3.1 демонстрира способности, сравними с водещи затворени модели в области като кодиране, математика и разсъждение, като същевременно с хибридната си експертна (MoE) архитектура поддържа голям капацитет на модела и ефективно намалява разходите за изчисления."
928
937
  },
938
+ "deepseek-ai/DeepSeek-V3.1-Terminus": {
939
+ "description": "DeepSeek-V3.1-Terminus е обновена версия на модела V3.1, пусната от DeepSeek, позиционирана като хибриден интелигентен голям езиков модел. Тази актуализация запазва оригиналните възможности на модела, като се фокусира върху отстраняване на проблеми, посочени от потребителите, и подобряване на стабилността. Значително е подобрена езиковата последователност, намалено е смесването на китайски и английски и появата на аномални символи. Моделът интегрира „режим на мислене“ и „режим без мислене“, като потребителите могат гъвкаво да превключват между тях чрез чат шаблони за различни задачи. Като важна оптимизация, V3.1-Terminus подобрява производителността на кодовия агент и търсещия агент, което ги прави по-надеждни при извикване на инструменти и изпълнение на многократни сложни задачи."
940
+ },
929
941
  "deepseek-ai/deepseek-llm-67b-chat": {
930
942
  "description": "DeepSeek 67B е напреднал модел, обучен за диалози с висока сложност."
931
943
  },
@@ -999,7 +1011,7 @@
999
1011
  "description": "DeepSeek R1 пълна версия, с 671B параметри, поддържаща търсене в реално време, с по-силни способности за разбиране и генериране."
1000
1012
  },
1001
1013
  "deepseek-reasoner": {
1002
- "description": "DeepSeek V3.1 режим на мислене. Преди да изведе окончателния отговор, моделът първо генерира мисловна верига, за да повиши точността на крайния отговор."
1014
+ "description": "Режим на мислене на DeepSeek V3.2. Преди да изведе окончателния отговор, моделът първо генерира мисловна верига, за да подобри точността на крайния отговор."
1003
1015
  },
1004
1016
  "deepseek-v2": {
1005
1017
  "description": "DeepSeek V2 е ефективен модел на Mixture-of-Experts, подходящ за икономически ефективни нужди от обработка."
@@ -1352,24 +1364,36 @@
1352
1364
  "gemini-2.5-flash": {
1353
1365
  "description": "Gemini 2.5 Flash е най-ефективният модел на Google, предлагащ пълна функционалност."
1354
1366
  },
1367
+ "gemini-2.5-flash-image": {
1368
+ "description": "Nano Banana е най-новият, най-бързият и най-ефективният роден мултимодален модел на Google, който ви позволява да генерирате и редактирате изображения чрез диалог."
1369
+ },
1355
1370
  "gemini-2.5-flash-image-preview": {
1356
1371
  "description": "Nano Banana е най-новият, най-бързият и най-ефективният роден мултимодален модел на Google, който ви позволява да генерирате и редактирате изображения чрез диалог."
1357
1372
  },
1358
1373
  "gemini-2.5-flash-image-preview:image": {
1359
1374
  "description": "Nano Banana е най-новият, най-бързият и най-ефективният роден мултимодален модел на Google, който ви позволява да генерирате и редактирате изображения чрез диалог."
1360
1375
  },
1376
+ "gemini-2.5-flash-image:image": {
1377
+ "description": "Nano Banana е най-новият, най-бързият и най-ефективният роден мултимодален модел на Google, който ви позволява да генерирате и редактирате изображения чрез диалог."
1378
+ },
1361
1379
  "gemini-2.5-flash-lite": {
1362
1380
  "description": "Gemini 2.5 Flash-Lite е най-малкият и най-ефективен модел на Google, създаден специално за масово използване."
1363
1381
  },
1364
1382
  "gemini-2.5-flash-lite-preview-06-17": {
1365
1383
  "description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-ефективен модел на Google, проектиран за мащабна употреба."
1366
1384
  },
1385
+ "gemini-2.5-flash-lite-preview-09-2025": {
1386
+ "description": "Прегледна версия (25 септември 2025 г.) на Gemini 2.5 Flash-Lite"
1387
+ },
1367
1388
  "gemini-2.5-flash-preview-04-17": {
1368
1389
  "description": "Gemini 2.5 Flash Preview е моделът с най-добро съотношение цена-качество на Google, предлагащ пълна функционалност."
1369
1390
  },
1370
1391
  "gemini-2.5-flash-preview-05-20": {
1371
1392
  "description": "Gemini 2.5 Flash Preview е най-ефективният модел на Google, предлагащ пълна функционалност."
1372
1393
  },
1394
+ "gemini-2.5-flash-preview-09-2025": {
1395
+ "description": "Прегледна версия (25 септември 2025 г.) на Gemini 2.5 Flash"
1396
+ },
1373
1397
  "gemini-2.5-pro": {
1374
1398
  "description": "Gemini 2.5 Pro е най-напредналият мисловен модел на Google, способен да разсъждава върху сложни проблеми в областта на кода, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
1375
1399
  },
@@ -1382,6 +1406,15 @@
1382
1406
  "gemini-2.5-pro-preview-06-05": {
1383
1407
  "description": "Gemini 2.5 Pro Preview е най-напредналият мисловен модел на Google, способен да разсъждава върху сложни проблеми в областта на кодирането, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
1384
1408
  },
1409
+ "gemini-flash-latest": {
1410
+ "description": "Последно издание на Gemini Flash"
1411
+ },
1412
+ "gemini-flash-lite-latest": {
1413
+ "description": "Последно издание на Gemini Flash-Lite"
1414
+ },
1415
+ "gemini-pro-latest": {
1416
+ "description": "Последно издание на Gemini Pro"
1417
+ },
1385
1418
  "gemma-7b-it": {
1386
1419
  "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
1387
1420
  },
@@ -1811,12 +1844,12 @@
1811
1844
  "hunyuan-t1-latest": {
1812
1845
  "description": "Значително подобрява способностите на основния модел за бавно мислене при сложна математика, комплексни разсъждения, труден код, спазване на инструкции и качество на текстовото творчество."
1813
1846
  },
1814
- "hunyuan-t1-vision": {
1815
- "description": "Модел за дълбоко мултимодално разбиране Hunyuan, поддържащ естествени мултимодални вериги на мислене, експертен в различни сценарии за разсъждение върху изображения, с цялостно подобрение спрямо бързите мисловни модели при научни задачи."
1816
- },
1817
1847
  "hunyuan-t1-vision-20250619": {
1818
1848
  "description": "Най-новият мултимодален дълбок мислещ модел t1-vision на Hunyuan, който поддържа оригинални мултимодални вериги на мисълта и предлага цялостно подобрение спрямо предишната версия по подразбиране."
1819
1849
  },
1850
+ "hunyuan-t1-vision-20250916": {
1851
+ "description": "Модел за дълбоко мислене с мултимодално разбиране Hunyuan, поддържащ родна мултимодална дълга мисловна верига, експертен в обработката на различни визуални задачи за разсъждение, с цялостно подобрение спрямо бързия мисловен модел при научни проблеми."
1852
+ },
1820
1853
  "hunyuan-turbo": {
1821
1854
  "description": "Предварителна версия на новото поколение голям езиков модел на HunYuan, използваща нова структура на смесен експертен модел (MoE), с по-бърза скорост на извеждане и по-силни резултати в сравнение с hunyuan-pro."
1822
1855
  },
@@ -1838,6 +1871,9 @@
1838
1871
  "hunyuan-turbos-20250604": {
1839
1872
  "description": "Актуализирана предварително обучена основа, подобрени умения за писане и разбиране на текст, значително подобрени способности в кодирането и точните науки, както и непрекъснато усъвършенстване в следването на сложни инструкции."
1840
1873
  },
1874
+ "hunyuan-turbos-20250926": {
1875
+ "description": "Актуализация на качеството на данните за предварително обучение. Оптимизирана стратегия за обучение в посттренировъчния етап, с непрекъснато подобряване на възможностите на агента, английския и малките езици, спазването на инструкции, кода и научните способности."
1876
+ },
1841
1877
  "hunyuan-turbos-latest": {
1842
1878
  "description": "hunyuan-TurboS е последната версия на флагманския модел Hunyuan, с по-силни способности за разсъждение и по-добро потребителско изживяване."
1843
1879
  },
@@ -3146,6 +3182,9 @@
3146
3182
  "zai-org/GLM-4.5V": {
3147
3183
  "description": "GLM-4.5V е най-новото поколение визуално-езиков модел (VLM), публикуван от Zhipu AI (智谱 AI). Моделът е изграден върху водещия текстов модел GLM-4.5-Air, който разполага с общо 106 милиарда параметри и 12 милиарда активационни параметри, и използва архитектура с разбъркани експерти (Mixture of Experts, MoE), целяща постигане на висока производителност при по-ниски разходи за инференция. Технически GLM-4.5V продължава линията на GLM-4.1V-Thinking и въвежда иновации като триизмерно ротационно позиционно кодиране (3D-RoPE), което значително засилва възприемането и разсъжденията относно триизмерните пространствени взаимовръзки. Чрез оптимизации в етапите на предварително обучение, супервизирано фино настройване и подсилено обучение, моделът може да обработва различни визуални формати — изображения, видео и дълги документи — и в 41 публични мултимодални бенчмарка достига водещи резултати сред отворените модели от същия клас. Освен това моделът добавя превключвател за 'режим на мислене', който позволява на потребителите гъвкаво да избират между бърз отговор и дълбоко разсъждение, за да балансират ефективността и качеството."
3148
3184
  },
3185
+ "zai-org/GLM-4.6": {
3186
+ "description": "В сравнение с GLM-4.5, GLM-4.6 предлага множество ключови подобрения. Контекстният прозорец е разширен от 128K до 200K токена, което позволява на модела да обработва по-сложни задачи на агенти. Моделът постига по-високи резултати в кодовите бенчмаркове и демонстрира по-силна реална производителност в приложения като Claude Code, Cline, Roo Code и Kilo Code, включително подобрения в генерирането на визуално изискани фронтенд страници. GLM-4.6 показва значително подобрение в производителността на извод и поддържа използването на инструменти по време на извод, което води до по-силни интегрирани възможности. Той е по-добър в използването на инструменти и базирани на търсене агенти и може по-ефективно да се интегрира в агентски рамки. В писането моделът е по-съобразен със стиловите и четивни предпочитания на хората и се представя по-естествено в ролеви игри."
3187
+ },
3149
3188
  "zai/glm-4.5": {
3150
3189
  "description": "Серията модели GLM-4.5 е специално проектирана за агенти. Флагманът GLM-4.5 интегрира 355 милиарда общи параметри (32 милиарда активни), обединявайки разсъждения, кодиране и агентски способности за решаване на сложни приложения. Като хибридна разсъдъчна система, той предлага двойни режими на работа."
3151
3190
  },
@@ -92,6 +92,12 @@
92
92
  "DeepSeek-V3.1-Think": {
93
93
  "description": "DeepSeek-V3.1 - Denkmodus; DeepSeek-V3.1 ist ein neu eingeführtes hybrides Inferenzmodell von DeepSeek, das zwei Inferenzmodi unterstützt: Denk- und Nicht-Denkmodus, mit höherer Denkeffizienz im Vergleich zu DeepSeek-R1-0528. Durch Post-Training-Optimierung wurde die Leistung bei Agenten-Werkzeugnutzung und Agentenaufgaben deutlich verbessert."
94
94
  },
95
+ "DeepSeek-V3.2-Exp": {
96
+ "description": "DeepSeek V3.2 ist das neueste universelle Großmodell von DeepSeek, das eine hybride Inferenzarchitektur unterstützt und über stärkere Agentenfähigkeiten verfügt."
97
+ },
98
+ "DeepSeek-V3.2-Exp-Think": {
99
+ "description": "DeepSeek V3.2 Denkmodus. Bevor die endgültige Antwort ausgegeben wird, gibt das Modell zunächst eine Gedankenkette aus, um die Genauigkeit der finalen Antwort zu verbessern."
100
+ },
95
101
  "Doubao-lite-128k": {
96
102
  "description": "Doubao-lite bietet extrem schnelle Reaktionszeiten und ein hervorragendes Preis-Leistungs-Verhältnis, um Kunden in verschiedenen Szenarien flexiblere Optionen zu bieten. Unterstützt Inferenz und Feintuning mit einem Kontextfenster von 128k."
97
103
  },
@@ -287,6 +293,9 @@
287
293
  "Pro/deepseek-ai/DeepSeek-V3.1": {
288
294
  "description": "DeepSeek-V3.1 ist ein hybrides großes Sprachmodell, das von DeepSeek AI veröffentlicht wurde und auf dem Vorgängermodell in vielerlei Hinsicht bedeutende Verbesserungen aufweist. Eine wesentliche Innovation dieses Modells ist die Integration des „Denkmodus“ und des „Nicht-Denkmodus“ in einem System, wobei Nutzer durch Anpassung der Chat-Vorlagen flexibel zwischen den Modi wechseln können, um unterschiedlichen Aufgabenanforderungen gerecht zu werden. Durch spezielles Post-Training wurde die Leistung von V3.1 bei Tool-Aufrufen und Agentenaufgaben deutlich gesteigert, was eine bessere Unterstützung externer Suchwerkzeuge und die Ausführung komplexer mehrstufiger Aufgaben ermöglicht. Das Modell basiert auf DeepSeek-V3.1-Base und wurde durch eine zweistufige Langtext-Erweiterungsmethode nachtrainiert, wodurch das Trainingsdatenvolumen erheblich erhöht wurde und es sich besonders bei der Verarbeitung langer Dokumente und umfangreicher Codes bewährt. Als Open-Source-Modell zeigt DeepSeek-V3.1 in Benchmarks zu Codierung, Mathematik und logischem Denken Fähigkeiten, die mit führenden Closed-Source-Modellen vergleichbar sind. Gleichzeitig senkt seine hybride Expertenarchitektur (MoE) die Inferenzkosten bei gleichzeitiger Beibehaltung einer enormen Modellkapazität."
289
295
  },
296
+ "Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
297
+ "description": "DeepSeek-V3.1-Terminus ist eine aktualisierte Version des V3.1-Modells von DeepSeek, positioniert als hybrides Agenten-Großsprachmodell. Dieses Update konzentriert sich darauf, auf Nutzerfeedback basierende Probleme zu beheben und die Stabilität zu verbessern, während die ursprünglichen Modellfähigkeiten erhalten bleiben. Es verbessert deutlich die Sprachkonsistenz und reduziert das Vermischen von Chinesisch und Englisch sowie das Auftreten ungewöhnlicher Zeichen. Das Modell integriert den „Denkmodus“ (Thinking Mode) und den „Nicht-Denkmodus“ (Non-thinking Mode), zwischen denen Nutzer flexibel über Chatvorlagen wechseln können, um unterschiedlichen Aufgaben gerecht zu werden. Als wichtige Optimierung verbessert V3.1-Terminus die Leistung des Code-Agenten und des Such-Agenten, wodurch diese bei Werkzeugaufrufen und der Ausführung mehrstufiger komplexer Aufgaben zuverlässiger sind."
298
+ },
290
299
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
291
300
  "description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
292
301
  },
@@ -926,6 +935,9 @@
926
935
  "deepseek-ai/DeepSeek-V3.1": {
927
936
  "description": "DeepSeek-V3.1 ist ein hybrides großes Sprachmodell, das von DeepSeek AI veröffentlicht wurde und auf dem Vorgängermodell in vielerlei Hinsicht bedeutende Verbesserungen aufweist. Eine wesentliche Innovation dieses Modells ist die Integration des „Denkmodus“ und des „Nicht-Denkmodus“ in einem System, wobei Nutzer durch Anpassung der Chat-Vorlagen flexibel zwischen den Modi wechseln können, um unterschiedlichen Aufgabenanforderungen gerecht zu werden. Durch spezielles Post-Training wurde die Leistung von V3.1 bei Tool-Aufrufen und Agentenaufgaben deutlich gesteigert, was eine bessere Unterstützung externer Suchwerkzeuge und die Ausführung komplexer mehrstufiger Aufgaben ermöglicht. Das Modell basiert auf DeepSeek-V3.1-Base und wurde durch eine zweistufige Langtext-Erweiterungsmethode nachtrainiert, wodurch das Trainingsdatenvolumen erheblich erhöht wurde und es sich besonders bei der Verarbeitung langer Dokumente und umfangreicher Codes bewährt. Als Open-Source-Modell zeigt DeepSeek-V3.1 in Benchmarks zu Codierung, Mathematik und logischem Denken Fähigkeiten, die mit führenden Closed-Source-Modellen vergleichbar sind. Gleichzeitig senkt seine hybride Expertenarchitektur (MoE) die Inferenzkosten bei gleichzeitiger Beibehaltung einer enormen Modellkapazität."
928
937
  },
938
+ "deepseek-ai/DeepSeek-V3.1-Terminus": {
939
+ "description": "DeepSeek-V3.1-Terminus ist eine aktualisierte Version des V3.1-Modells von DeepSeek, positioniert als hybrides Agenten-Großsprachmodell. Dieses Update konzentriert sich darauf, auf Nutzerfeedback basierende Probleme zu beheben und die Stabilität zu verbessern, während die ursprünglichen Modellfähigkeiten erhalten bleiben. Es verbessert deutlich die Sprachkonsistenz und reduziert das Vermischen von Chinesisch und Englisch sowie das Auftreten ungewöhnlicher Zeichen. Das Modell integriert den „Denkmodus“ (Thinking Mode) und den „Nicht-Denkmodus“ (Non-thinking Mode), zwischen denen Nutzer flexibel über Chatvorlagen wechseln können, um unterschiedlichen Aufgaben gerecht zu werden. Als wichtige Optimierung verbessert V3.1-Terminus die Leistung des Code-Agenten und des Such-Agenten, wodurch diese bei Werkzeugaufrufen und der Ausführung mehrstufiger komplexer Aufgaben zuverlässiger sind."
940
+ },
929
941
  "deepseek-ai/deepseek-llm-67b-chat": {
930
942
  "description": "DeepSeek 67B ist ein fortschrittliches Modell, das für komplexe Dialoge trainiert wurde."
931
943
  },
@@ -999,7 +1011,7 @@
999
1011
  "description": "DeepSeek R1 Vollversion mit 671B Parametern, die Echtzeit-Online-Suche unterstützt und über verbesserte Verständnis- und Generierungsfähigkeiten verfügt."
1000
1012
  },
1001
1013
  "deepseek-reasoner": {
1002
- "description": "DeepSeek V3.1 Denkmodus. Bevor die endgültige Antwort ausgegeben wird, generiert das Modell eine Kette von Überlegungen, um die Genauigkeit der finalen Antwort zu verbessern."
1014
+ "description": "DeepSeek V3.2 Denkmodus. Bevor die endgültige Antwort ausgegeben wird, gibt das Modell zunächst eine Gedankenkette aus, um die Genauigkeit der finalen Antwort zu verbessern."
1003
1015
  },
1004
1016
  "deepseek-v2": {
1005
1017
  "description": "DeepSeek V2 ist ein effizientes Mixture-of-Experts-Sprachmodell, das für wirtschaftliche Verarbeitungsanforderungen geeignet ist."
@@ -1352,24 +1364,36 @@
1352
1364
  "gemini-2.5-flash": {
1353
1365
  "description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell und bietet umfassende Funktionen."
1354
1366
  },
1367
+ "gemini-2.5-flash-image": {
1368
+ "description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell, das es Ihnen ermöglicht, Bilder durch Dialog zu generieren und zu bearbeiten."
1369
+ },
1355
1370
  "gemini-2.5-flash-image-preview": {
1356
1371
  "description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell, das es Ihnen ermöglicht, Bilder durch Dialog zu generieren und zu bearbeiten."
1357
1372
  },
1358
1373
  "gemini-2.5-flash-image-preview:image": {
1359
1374
  "description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell, das es Ihnen ermöglicht, Bilder durch Dialog zu generieren und zu bearbeiten."
1360
1375
  },
1376
+ "gemini-2.5-flash-image:image": {
1377
+ "description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell, das es Ihnen ermöglicht, Bilder durch Dialog zu generieren und zu bearbeiten."
1378
+ },
1361
1379
  "gemini-2.5-flash-lite": {
1362
1380
  "description": "Gemini 2.5 Flash-Lite ist Googles kleinstes und kosteneffizientestes Modell, das speziell für den großflächigen Einsatz entwickelt wurde."
1363
1381
  },
1364
1382
  "gemini-2.5-flash-lite-preview-06-17": {
1365
1383
  "description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell, speziell für den großflächigen Einsatz konzipiert."
1366
1384
  },
1385
+ "gemini-2.5-flash-lite-preview-09-2025": {
1386
+ "description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash-Lite"
1387
+ },
1367
1388
  "gemini-2.5-flash-preview-04-17": {
1368
1389
  "description": "Gemini 2.5 Flash Preview ist das kosteneffizienteste Modell von Google und bietet umfassende Funktionen."
1369
1390
  },
1370
1391
  "gemini-2.5-flash-preview-05-20": {
1371
1392
  "description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit umfassenden Funktionen."
1372
1393
  },
1394
+ "gemini-2.5-flash-preview-09-2025": {
1395
+ "description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash"
1396
+ },
1373
1397
  "gemini-2.5-pro": {
1374
1398
  "description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Denkmodell, das komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer lösen kann und große Datensätze, Codebasen und Dokumente mit langem Kontext analysiert."
1375
1399
  },
@@ -1382,6 +1406,15 @@
1382
1406
  "gemini-2.5-pro-preview-06-05": {
1383
1407
  "description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer lösen kann und große Datensätze, Codebasen und Dokumente mit langem Kontext analysiert."
1384
1408
  },
1409
+ "gemini-flash-latest": {
1410
+ "description": "Neueste Version von Gemini Flash"
1411
+ },
1412
+ "gemini-flash-lite-latest": {
1413
+ "description": "Neueste Version von Gemini Flash-Lite"
1414
+ },
1415
+ "gemini-pro-latest": {
1416
+ "description": "Neueste Version von Gemini Pro"
1417
+ },
1385
1418
  "gemma-7b-it": {
1386
1419
  "description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
1387
1420
  },
@@ -1811,12 +1844,12 @@
1811
1844
  "hunyuan-t1-latest": {
1812
1845
  "description": "Erhebliche Verbesserung der Fähigkeiten des Hauptmodells im langsamen Denkmodus bei anspruchsvoller Mathematik, komplexen Schlussfolgerungen, anspruchsvollem Code, Befolgung von Anweisungen und Textkreation."
1813
1846
  },
1814
- "hunyuan-t1-vision": {
1815
- "description": "Hunyuan ist ein multimodales Verständnis- und Tiefdenkmodell, das native multimodale lange Denkprozesse unterstützt. Es ist spezialisiert auf verschiedene Bildinferenzszenarien und zeigt im Vergleich zu Schnelldenkmodellen umfassende Verbesserungen bei naturwissenschaftlichen Problemen."
1816
- },
1817
1847
  "hunyuan-t1-vision-20250619": {
1818
1848
  "description": "Die neueste Version des hunyuan t1-vision multimodalen tiefen Denkmodells unterstützt native multimodale Chain-of-Thought-Mechanismen und bietet im Vergleich zur vorherigen Standardversion umfassende Verbesserungen."
1819
1849
  },
1850
+ "hunyuan-t1-vision-20250916": {
1851
+ "description": "Hunyuan multimodales Verständnis- und Tiefdenkmodell, unterstützt native multimodale lange Gedankenketten, ist spezialisiert auf verschiedene Bildinferenzszenarien und verbessert sich im Vergleich zum Schnelldenkmodell umfassend bei naturwissenschaftlichen Problemen."
1852
+ },
1820
1853
  "hunyuan-turbo": {
1821
1854
  "description": "Die Vorschauversion des neuen großen Sprachmodells von Hunyuan verwendet eine neuartige hybride Expertenmodellstruktur (MoE) und bietet im Vergleich zu Hunyuan-Pro eine schnellere Inferenz und bessere Leistung."
1822
1855
  },
@@ -1838,6 +1871,9 @@
1838
1871
  "hunyuan-turbos-20250604": {
1839
1872
  "description": "Upgrade der vortrainierten Basis, verbessert Schreib- und Leseverständnisfähigkeiten, steigert deutlich die Programmier- und naturwissenschaftlichen Kompetenzen und verbessert kontinuierlich die Befolgung komplexer Anweisungen."
1840
1873
  },
1874
+ "hunyuan-turbos-20250926": {
1875
+ "description": "Qualitätsverbesserung der Pretraining-Basisdaten. Optimierung der Trainingsstrategie in der Posttrain-Phase, kontinuierliche Verbesserung der Agenten-, Englisch- und kleinen Sprachfähigkeiten, Befolgung von Anweisungen, Code- und naturwissenschaftlichen Fähigkeiten."
1876
+ },
1841
1877
  "hunyuan-turbos-latest": {
1842
1878
  "description": "hunyuan-TurboS ist die neueste Version des Hunyuan-Flaggschiffmodells, das über verbesserte Denkfähigkeiten und ein besseres Nutzungserlebnis verfügt."
1843
1879
  },
@@ -3146,6 +3182,9 @@
3146
3182
  "zai-org/GLM-4.5V": {
3147
3183
  "description": "GLM-4.5V ist das neueste visuell-sprachliche Modell (VLM), das von Zhipu AI veröffentlicht wurde. Das Modell basiert auf dem Flaggschiff-Textmodell GLM-4.5-Air mit insgesamt 106 Milliarden Parametern und 12 Milliarden Aktivierungsparametern und verwendet eine Mixture-of-Experts-(MoE)-Architektur. Es zielt darauf ab, bei geringeren Inferenzkosten herausragende Leistung zu erzielen. Technisch setzt es die Entwicklungslinie von GLM-4.1V-Thinking fort und führt Innovationen wie die dreidimensionale Rotations-Positionskodierung (3D-RoPE) ein, wodurch die Wahrnehmung und das Schließen über dreidimensionale Raumbeziehungen deutlich verbessert werden. Durch Optimierungen in den Phasen des Pre-Trainings, der überwachten Feinabstimmung und des Reinforcement Learnings ist das Modell in der Lage, verschiedene visuelle Inhalte wie Bilder, Videos und lange Dokumente zu verarbeiten; in 41 öffentlichen multimodalen Benchmarks erreichte es Spitzenwerte unter frei verfügbaren Modellen derselben Klasse. Zudem wurde ein \"Denkmodus\"-Schalter hinzugefügt, der es Nutzern erlaubt, flexibel zwischen schneller Reaktion und tiefgehendem Schlussfolgern zu wählen, um Effizienz und Ergebnisqualität auszubalancieren."
3148
3184
  },
3185
+ "zai-org/GLM-4.6": {
3186
+ "description": "Im Vergleich zu GLM-4.5 bringt GLM-4.6 mehrere wichtige Verbesserungen. Das Kontextfenster wurde von 128K auf 200K Tokens erweitert, wodurch das Modell komplexere Agentenaufgaben bewältigen kann. Das Modell erzielte höhere Werte in Code-Benchmark-Tests und zeigte in Anwendungen wie Claude Code, Cline, Roo Code und Kilo Code eine stärkere Leistung in realen Szenarien, einschließlich verbesserter Generierung visuell ansprechender Frontend-Seiten. GLM-4.6 zeigt eine deutliche Steigerung der Inferenzleistung und unterstützt die Nutzung von Werkzeugen während der Inferenz, was zu einer stärkeren Gesamtkapazität führt. Es zeigt bessere Leistungen bei der Werkzeugnutzung und suchbasierten Agenten und lässt sich effektiver in Agentenframeworks integrieren. Im Bereich des Schreibens entspricht das Modell stilistisch und in der Lesbarkeit stärker menschlichen Präferenzen und verhält sich in Rollenspielszenarien natürlicher."
3187
+ },
3149
3188
  "zai/glm-4.5": {
3150
3189
  "description": "Die GLM-4.5 Modellreihe sind speziell für Agenten entwickelte Basismodelle. Das Flaggschiff GLM-4.5 integriert 355 Milliarden Gesamtparameter (32 Milliarden aktiv) und vereint Inferenz-, Codierungs- und Agentenfähigkeiten zur Lösung komplexer Anwendungsanforderungen. Als hybrides Inferenzsystem bietet es zwei Betriebsmodi."
3151
3190
  },