@lobehub/chat 1.128.4 → 1.128.6

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (33) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/apps/desktop/package.json +1 -1
  3. package/changelog/v1.json +18 -0
  4. package/locales/ar/models.json +7 -4
  5. package/locales/bg-BG/models.json +7 -4
  6. package/locales/de-DE/models.json +7 -4
  7. package/locales/en-US/models.json +7 -4
  8. package/locales/es-ES/models.json +7 -4
  9. package/locales/fa-IR/models.json +7 -4
  10. package/locales/fr-FR/models.json +7 -4
  11. package/locales/it-IT/models.json +7 -4
  12. package/locales/ja-JP/models.json +7 -4
  13. package/locales/ko-KR/models.json +7 -4
  14. package/locales/nl-NL/models.json +7 -4
  15. package/locales/pl-PL/models.json +7 -4
  16. package/locales/pt-BR/models.json +7 -4
  17. package/locales/ru-RU/models.json +7 -4
  18. package/locales/tr-TR/models.json +7 -4
  19. package/locales/vi-VN/models.json +7 -4
  20. package/locales/zh-CN/models.json +7 -4
  21. package/locales/zh-TW/models.json +7 -4
  22. package/package.json +5 -5
  23. package/packages/model-bank/src/aiModels/xai.ts +3 -3
  24. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +24 -4
  25. package/packages/model-runtime/src/core/streams/google-ai.test.ts +89 -4
  26. package/packages/model-runtime/src/core/streams/google-ai.ts +13 -1
  27. package/packages/model-runtime/src/core/streams/openai/openai.test.ts +1 -1
  28. package/packages/model-runtime/src/core/streams/protocol.test.ts +80 -1
  29. package/packages/model-runtime/src/core/streams/protocol.ts +25 -2
  30. package/packages/model-runtime/src/providers/google/index.test.ts +155 -0
  31. package/packages/model-runtime/src/providers/google/index.ts +65 -11
  32. package/src/config/modelProviders/qwen.ts +1 -1
  33. package/src/config/modelProviders/siliconcloud.ts +1 -1
package/CHANGELOG.md CHANGED
@@ -2,6 +2,56 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.128.6](https://github.com/lobehub/lobe-chat/compare/v1.128.5...v1.128.6)
6
+
7
+ <sup>Released on **2025-09-14**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#9243](https://github.com/lobehub/lobe-chat/issues/9243) ([04764ad](https://github.com/lobehub/lobe-chat/commit/04764ad))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ### [Version 1.128.5](https://github.com/lobehub/lobe-chat/compare/v1.128.4...v1.128.5)
31
+
32
+ <sup>Released on **2025-09-13**</sup>
33
+
34
+ #### 🐛 Bug Fixes
35
+
36
+ - **misc**: Google stream error unable to abort request.
37
+
38
+ <br/>
39
+
40
+ <details>
41
+ <summary><kbd>Improvements and Fixes</kbd></summary>
42
+
43
+ #### What's fixed
44
+
45
+ - **misc**: Google stream error unable to abort request, closes [#9180](https://github.com/lobehub/lobe-chat/issues/9180) ([78eaead](https://github.com/lobehub/lobe-chat/commit/78eaead))
46
+
47
+ </details>
48
+
49
+ <div align="right">
50
+
51
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
52
+
53
+ </div>
54
+
5
55
  ### [Version 1.128.4](https://github.com/lobehub/lobe-chat/compare/v1.128.3...v1.128.4)
6
56
 
7
57
  <sup>Released on **2025-09-13**</sup>
@@ -59,7 +59,7 @@
59
59
  "electron-store": "^8.2.0",
60
60
  "electron-vite": "^3.0.0",
61
61
  "execa": "^9.5.2",
62
- "fix-path": "^4.0.0",
62
+ "fix-path": "^5.0.0",
63
63
  "http-proxy-agent": "^7.0.2",
64
64
  "https-proxy-agent": "^7.0.6",
65
65
  "just-diff": "^6.0.2",
package/changelog/v1.json CHANGED
@@ -1,4 +1,22 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2025-09-14",
9
+ "version": "1.128.6"
10
+ },
11
+ {
12
+ "children": {
13
+ "fixes": [
14
+ "Google stream error unable to abort request."
15
+ ]
16
+ },
17
+ "date": "2025-09-13",
18
+ "version": "1.128.5"
19
+ },
2
20
  {
3
21
  "children": {
4
22
  "improvements": [
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE مع قدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview هو نموذج معالجة اللغة الطبيعية المبتكر، قادر على معالجة مهام توليد الحوار وفهم السياق بشكل فعال."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "نسخة ألترا من سلسلة نموذج Imagen للجيل الرابع لتحويل النص إلى صورة"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 هو نموذج لغوي كبير عالي الأداء بحجم صغير يعتمد على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكن يتم تفعيل 1.4 مليار فقط لكل رمز (789 مليون غير مضمن)، مما يحقق سرعة توليد عالية جداً. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة وعلى نطاق واسع، بالرغم من أن المعلمات المفعلة تبلغ فقط 1.4 مليار، إلا أن Ling-mini-2.0 يظهر أداءً رفيع المستوى في المهام اللاحقة يمكن مقارنته بنماذج LLM الكثيفة التي تقل عن 10 مليارات والمع نماذج MoE الأكبر حجماً."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE يتمتع بقدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2223
+ "description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 هو نموذج أساسي مبني على بنية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء المعيارية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 е базов модел с MoE архитектура с изключителни кодови и агентски способности, с общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview е иновативен модел за обработка на естествен език, способен да обработва ефективно сложни задачи за генериране на диалог и разбиране на контекста."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Imagen 4-то поколение текст-към-изображение модел серия Ултра версия"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 е малък, високопроизводителен голям езиков модел, базиран на MoE архитектура. Той разполага с 16 милиарда общи параметри, но за всеки токен се активират само 1.4 милиарда (без вграждания 789 милиона), което осигурява изключително висока скорост на генериране. Благодарение на ефективния MoE дизайн и големия обем висококачествени тренировъчни данни, въпреки че активните параметри са само 1.4 милиарда, Ling-mini-2.0 демонстрира водещи резултати в задачи надолу по веригата, сравними с плътни LLM с по-малко от 10 милиарда параметри и по-големи MoE модели."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 е базов модел с MoE архитектура, с изключителни кодови и агентски способности, общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2223
+ "description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 е базов модел с MoE архитектура с изключителни способности за кодиране и агент, с общо 1 трилион параметри и 32 милиарда активни параметри. В бенчмаркови тестове за общи знания, програмиране, математика и агенти, моделът K2 превъзхожда други водещи отворени модели."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 ist ein MoE-Architektur-Basis-Modell mit herausragenden Code- und Agentenfähigkeiten, insgesamt 1 Billion Parameter und 32 Milliarden aktivierten Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agentenaufgaben übertrifft das K2-Modell andere führende Open-Source-Modelle."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview ist ein innovatives Modell für die Verarbeitung natürlicher Sprache, das komplexe Aufgaben der Dialoggenerierung und des Kontextverständnisses effizient bewältigen kann."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Imagen 4. Generation Text-zu-Bild Modellserie Ultra-Version"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes großes Sprachmodell basierend auf der MoE-Architektur. Es verfügt über 16 Milliarden Gesamtparameter, aktiviert jedoch pro Token nur 1,4 Milliarden (nicht-Embedding 789 Millionen), was eine extrem hohe Generierungsgeschwindigkeit ermöglicht. Dank des effizienten MoE-Designs und umfangreicher, qualitativ hochwertiger Trainingsdaten zeigt Ling-mini-2.0 trotz nur 1,4 Milliarden aktivierter Parameter Spitzenleistungen bei nachgelagerten Aufgaben, die mit dichten LLMs unter 10 Milliarden und größeren MoE-Modellen vergleichbar sind."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 ist ein MoE-Basis-Modell mit herausragenden Code- und Agentenfähigkeiten, insgesamt 1 Billion Parameter und 32 Milliarden aktivierten Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agentenaufgaben übertrifft das K2-Modell andere führende Open-Source-Modelle."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2223
+ "description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 ist ein MoE-Architektur-Basismodell mit außergewöhnlichen Fähigkeiten in Code und Agenten, mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern. In Benchmark-Tests zu allgemeinem Wissen, Programmierung, Mathematik und Agenten übertrifft das K2-Modell andere führende Open-Source-Modelle."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 is a MoE architecture base model with exceptional coding and agent capabilities, featuring 1 trillion total parameters and 32 billion activated parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview is an innovative natural language processing model capable of efficiently handling complex dialogue generation and context understanding tasks."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Imagen 4th generation text-to-image model series Ultra version"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 is a compact, high-performance large language model based on the MoE architecture. It has 16 billion total parameters, but only activates 1.4 billion per token (non-embedding 789 million), enabling extremely fast generation speeds. Thanks to its efficient MoE design and large-scale, high-quality training data, Ling-mini-2.0 delivers top-tier performance on downstream tasks comparable to dense LLMs under 10 billion parameters and even larger MoE models, despite having only 1.4 billion activated parameters."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 offers intelligent dialogue solutions across multiple scenarios."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 is a MoE architecture base model with exceptional coding and agent capabilities, featuring 1 trillion total parameters and 32 billion activated parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2223
+ "description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 is a MoE architecture base model with powerful coding and Agent capabilities, featuring a total of 1 trillion parameters and 32 billion active parameters. In benchmark tests across key categories such as general knowledge reasoning, programming, mathematics, and Agent tasks, the K2 model outperforms other mainstream open-source models."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 es un modelo base con arquitectura MoE que posee capacidades avanzadas de codificación y agentes, con un total de 1 billón de parámetros y 32 mil millones de parámetros activados. En pruebas de referencia en categorías principales como razonamiento general, programación, matemáticas y agentes, el rendimiento del modelo K2 supera a otros modelos de código abierto populares."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview es un modelo de procesamiento de lenguaje natural innovador, capaz de manejar de manera eficiente tareas complejas de generación de diálogos y comprensión del contexto."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Serie de modelos de texto a imagen de cuarta generación de Imagen, versión Ultra"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 es un modelo de lenguaje grande de alto rendimiento y tamaño pequeño basado en la arquitectura MoE. Cuenta con 16 mil millones de parámetros totales, pero solo activa 1.4 mil millones por token (no embedding 789 millones), lo que permite una velocidad de generación extremadamente alta. Gracias al diseño eficiente de MoE y a un entrenamiento a gran escala con datos de alta calidad, a pesar de tener solo 1.4 mil millones de parámetros activados, Ling-mini-2.0 demuestra un rendimiento de primer nivel en tareas downstream, comparable a modelos densos de menos de 10 mil millones de parámetros y a modelos MoE de mayor escala."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 es un modelo base con arquitectura MoE que posee capacidades avanzadas de codificación y agentes, con un total de 1 billón de parámetros y 32 mil millones de parámetros activados. En pruebas de referencia en categorías principales como razonamiento general, programación, matemáticas y agentes, el rendimiento del modelo K2 supera a otros modelos de código abierto populares."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
2223
+ "description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 es un modelo base con arquitectura MoE que cuenta con capacidades avanzadas de código y agentes, con un total de 1T parámetros y 32B parámetros activados. En pruebas de referencia en categorías principales como razonamiento de conocimiento general, programación, matemáticas y agentes, el modelo K2 supera el rendimiento de otros modelos de código abierto populares."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمون‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview یک مدل پردازش زبان طبیعی نوآورانه است که قادر به پردازش کارآمد مکالمات پیچیده و درک زمینه است."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "نسخه اولترا سری مدل متن به تصویر نسل چهارم Imagen"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 یک مدل زبان بزرگ کوچک‌حجم و با عملکرد بالا مبتنی بر معماری MoE است. این مدل دارای ۱۶ میلیارد پارامتر کل است، اما برای هر توکن تنها ۱.۴ میلیارد پارامتر فعال (بدون در نظر گرفتن تعبیه ۷۸۹ میلیون) فعال می‌شود، که منجر به سرعت تولید بسیار بالا می‌شود. به لطف طراحی کارآمد MoE و داده‌های آموزشی بزرگ و با کیفیت، با وجود پارامترهای فعال تنها ۱.۴ میلیارد، Ling-mini-2.0 در وظایف پایین‌دستی عملکردی در حد مدل‌های LLM متراکم زیر ۱۰ میلیارد و مدل‌های MoE بزرگ‌تر ارائه می‌دهد."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 راه‌حل‌های گفتگوی هوشمند در چندین سناریو ارائه می‌دهد."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمون‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2223
+ "description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل‌ها می‌باشد، با مجموع پارامتر ۱ تریلیون و پارامترهای فعال ۳۲ میلیارد. در آزمون‌های معیار عملکرد در دسته‌های اصلی مانند استدلال دانش عمومی، برنامه‌نویسی، ریاضیات و عامل‌ها، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز رایج دارد."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en codage et agents, avec 1 000 milliards de paramètres au total et 32 milliards activés. Il surpasse les autres modèles open source majeurs dans les tests de performance sur les connaissances générales, la programmation, les mathématiques et les agents."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview est un modèle de traitement du langage naturel innovant, capable de gérer efficacement des tâches complexes de génération de dialogues et de compréhension contextuelle."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Série de modèles de génération d'images à partir de texte Imagen 4e génération version Ultra"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 est un modèle linguistique de grande taille à haute performance et petite taille basé sur l'architecture MoE. Il possède 16 milliards de paramètres au total, mais n'active que 1,4 milliard par token (789 millions hors embeddings), ce qui permet une vitesse de génération extrêmement élevée. Grâce à une conception MoE efficace et à un entraînement à grande échelle avec des données de haute qualité, malgré seulement 1,4 milliard de paramètres activés, Ling-mini-2.0 affiche des performances de pointe comparables à celles des modèles denses de moins de 10 milliards de paramètres et des modèles MoE de plus grande taille dans les tâches en aval."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en codage et agents, avec 1 000 milliards de paramètres au total et 32 milliards activés. Il surpasse les autres modèles open source majeurs dans les tests de performance sur les connaissances générales, la programmation, les mathématiques et les agents."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2223
+ "description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en code et Agent, avec un total de 1T paramètres et 32B paramètres activés. Dans les tests de performance de référence couvrant les principales catégories telles que le raisonnement général, la programmation, les mathématiques et les Agents, le modèle K2 surpasse les autres modèles open source majeurs."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 è un modello base con architettura MoE dotato di potenti capacità di codice e agenti, con 1 trilione di parametri totali e 32 miliardi di parametri attivi. Nei test di benchmark su ragionamento generale, programmazione, matematica e agenti, il modello K2 supera altri modelli open source principali."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Serie di modelli di generazione di immagini da testo di quarta generazione Imagen versione Ultra"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 è un modello linguistico di grandi dimensioni ad alte prestazioni e di piccole dimensioni basato sull'architettura MoE. Possiede 16 miliardi di parametri totali, ma per ogni token ne attiva solo 1,4 miliardi (non embedding 789 milioni), consentendo così una velocità di generazione estremamente elevata. Grazie a un design MoE efficiente e a dati di addestramento di alta qualità su larga scala, nonostante i soli 1,4 miliardi di parametri attivi, Ling-mini-2.0 dimostra prestazioni di punta in compiti downstream comparabili a modelli LLM densi sotto i 10 miliardi e a modelli MoE di dimensioni maggiori."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 è un modello base con architettura MoE dotato di potenti capacità di codice e agenti, con 1 trilione di parametri totali e 32 miliardi di parametri attivi. Nei test di benchmark su ragionamento generale, programmazione, matematica e agenti, il modello K2 supera altri modelli open source principali."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
2223
+ "description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 è un modello di base con architettura MoE dotato di potenti capacità di codice e agenti, con un totale di 1T parametri e 32B parametri attivi. Nei test di benchmark per categorie principali come ragionamento generale, programmazione, matematica e agenti, il modello K2 supera le altre principali soluzioni open source."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2は超強力なコードおよびエージェント能力を持つMoEアーキテクチャの基盤モデルで、総パラメータ数1兆、活性化パラメータ320億です。汎用知識推論、プログラミング、数学、エージェントなど主要カテゴリのベンチマーク性能で他の主流オープンソースモデルを上回っています。"
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 は Kimi K2 の最新かつ最強のバージョンです。これはトップクラスの混合専門家(MoE)言語モデルであり、総パラメータ数は1兆、活性化パラメータ数は320億を誇ります。このモデルの主な特徴は、強化されたエージェントのコーディング知能であり、公開ベンチマークテストおよび実世界のエージェントコーディングタスクで顕著な性能向上を示しています。また、フロントエンドのコーディング体験も改善され、フロントエンドプログラミングの美観と実用性の両面で進歩しています。"
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。"
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Imagen 第4世代テキストから画像へのモデルシリーズ ウルトラバージョン"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 は MoE アーキテクチャに基づく小型高性能大規模言語モデルです。総パラメータ数は16Bですが、各トークンあたりの活性化パラメータはわずか1.4B(非埋め込み部分は789M)であり、非常に高速な生成速度を実現しています。効率的な MoE 設計と大規模かつ高品質なトレーニングデータのおかげで、活性化パラメータが1.4Bに過ぎないにもかかわらず、Ling-mini-2.0 は下流タスクにおいて10B以下のデンスLLMやより大規模なMoEモデルに匹敵するトップクラスの性能を発揮します。"
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。"
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2は超強力なコードおよびエージェント能力を持つMoEアーキテクチャ基盤モデルで、総パラメータ1兆、活性化パラメータ320億。汎用知識推論、プログラミング、数学、エージェントなど主要カテゴリのベンチマーク性能で他の主流オープンソースモデルを上回っています。"
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "kimi-k2-0905-previewモデルは256kのコンテキスト長を持ち、より強力なエージェントコーディング能力、より優れたフロントエンドコードの美観と実用性、そしてより良いコンテキスト理解能力を備えています。"
2223
+ "description": "Kimi K2-Instruct-0905 は Kimi K2 の最新かつ最強のバージョンです。これはトップクラスの混合専門家(MoE)言語モデルであり、総パラメータ数は1兆、活性化パラメータ数は320億を誇ります。このモデルの主な特徴は、強化されたエージェントのコーディング知能であり、公開ベンチマークテストおよび実世界のエージェントコーディングタスクで顕著な性能向上を示しています。また、フロントエンドのコーディング体験も改善され、フロントエンドプログラミングの美観と実用性の両面で進歩しています。"
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "kimi-k2-0905-previewモデルは256kのコンテキスト長を持ち、より強力なエージェントコーディング能力、より優れたフロントエンドコードの美観と実用性、そしてより良いコンテキスト理解能力を備えています。"
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 は、強力なコードおよびエージェント機能を備えたMoEアーキテクチャの基盤モデルで、総パラメータ数は1兆、活性化パラメータは320億です。一般的な知識推論、プログラミング、数学、エージェントなどの主要なベンチマーク性能テストにおいて、K2モデルは他の主流のオープンソースモデルを上回る性能を示しています。"
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "kimi-k2-0905-previewモデルは256kのコンテキスト長を持ち、より強力なエージェントコーディング能力、より優れたフロントエンドコードの美観と実用性、そしてより良いコンテキスト理解能力を備えています。"
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2는 초강력 코드 및 에이전트 능력을 갖춘 MoE 아키텍처 기반 모델로, 총 파라미터 1조, 활성화 파라미터 320억입니다. 범용 지식 추론, 프로그래밍, 수학, 에이전트 등 주요 분야 벤치마크에서 K2 모델은 다른 주류 오픈 소스 모델을 능가하는 성능을 보입니다."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905는 Kimi K2의 최신이자 가장 강력한 버전입니다. 이 모델은 총 1조 개의 파라미터와 320억 개의 활성화 파라미터를 가진 최첨단 혼합 전문가(MoE) 언어 모델입니다. 주요 특징으로는 향상된 에이전트 코딩 지능으로, 공개 벤치마크 테스트와 실제 코딩 에이전트 작업에서 뛰어난 성능 향상을 보였으며, 프론트엔드 코딩 경험이 개선되어 프론트엔드 프로그래밍의 미적 측면과 실용성 모두에서 진전을 이루었습니다."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview는 복잡한 대화 생성 및 맥락 이해 작업을 효율적으로 처리할 수 있는 혁신적인 자연어 처리 모델입니다."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Imagen 4세대 텍스트-이미지 모델 시리즈 울트라 버전"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0은 MoE 아키텍처 기반의 소형 고성능 대형 언어 모델입니다. 총 160억 개의 파라미터를 보유하고 있지만, 각 토큰당 활성화되는 파라미터는 14억(비임베딩 7억 8,900만)으로 매우 높은 생성 속도를 자랑합니다. 효율적인 MoE 설계와 대규모 고품질 학습 데이터 덕분에, 활성화 파라미터가 14억에 불과함에도 불구하고 Ling-mini-2.0은 하위 작업에서 100억 이하의 dense LLM 및 더 큰 규모의 MoE 모델과 견줄 만한 최상위 성능을 보여줍니다."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2는 초강력 코드 및 에이전트 능력을 갖춘 MoE 아키텍처 기반 모델로, 총 파라미터 1조, 활성화 파라미터 320억입니다. 범용 지식 추론, 프로그래밍, 수학, 에이전트 등 주요 분야 벤치마크에서 K2 모델은 다른 주류 오픈 소스 모델을 능가하는 성능을 보입니다."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
2223
+ "description": "Kimi K2-Instruct-0905 Kimi K2의 최신이자 가장 강력한 버전입니다. 이 모델은 1조 개의 파라미터와 320억 개의 활성화 파라미터를 가진 최첨단 혼합 전문가(MoE) 언어 모델입니다. 주요 특징으로는 향상된 에이전트 코딩 지능으로, 공개 벤치마크 테스트와 실제 코딩 에이전트 작업에서 뛰어난 성능 향상을 보였으며, 프론트엔드 코딩 경험이 개선되어 프론트엔드 프로그래밍의 미적 측면과 실용성 모두에서 진전을 이루었습니다."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2는 강력한 코드 및 에이전트 기능을 갖춘 MoE 아키텍처 기반 모델로, 총 파라미터 1조, 활성화 파라미터 320억입니다. 일반 지식 추론, 프로그래밍, 수학, 에이전트 등 주요 분야의 벤치마크 성능 테스트에서 K2 모델은 다른 주요 오픈소스 모델을 능가하는 성능을 보입니다."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 is een MoE-architectuurbasis model met krachtige codeer- en agentcapaciteiten, met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. In benchmarktests voor algemene kennisredenering, programmeren, wiskunde en agenttaken overtreft het K2-model andere toonaangevende open-source modellen."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste versie van Kimi K2. Het is een toonaangevend hybride expert (MoE) taalmodel met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. De belangrijkste kenmerken van dit model zijn: verbeterde agent-coderingsintelligentie, met aanzienlijke prestatieverbeteringen in openbare benchmarktests en echte agent-coderingsopdrachten; verbeterde front-end coderingservaring, met vooruitgang in zowel esthetiek als bruikbaarheid van front-end programmeren."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview is een innovatief natuurlijk taalverwerkingsmodel dat efficiënt complexe dialooggeneratie en contextbegripstaken kan verwerken."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Imagen 4e generatie tekst-naar-beeld modelserie Ultra versie"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 is een klein, hoogwaardig groot taalmodel gebaseerd op de MoE-architectuur. Het heeft in totaal 16 miljard parameters, maar activeert slechts 1,4 miljard per token (non-embedding 789 miljoen), wat zorgt voor een extreem hoge generatie snelheid. Dankzij het efficiënte MoE-ontwerp en grootschalige, hoogwaardige trainingsdata levert Ling-mini-2.0, ondanks slechts 1,4 miljard geactiveerde parameters, toch topprestaties die vergelijkbaar zijn met dense LLM's onder de 10 miljard en grotere MoE-modellen in downstream taken."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 is een MoE-architectuurbasis model met krachtige codeer- en agentcapaciteiten, met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. In benchmarktests voor algemene kennisredenering, programmeren, wiskunde en agenttaken overtreft het K2-model andere toonaangevende open-source modellen."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
2223
+ "description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste versie van Kimi K2. Het is een toonaangevend hybride expert (MoE) taalmodel met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. De belangrijkste kenmerken van dit model zijn: verbeterde agent-coderingsintelligentie, met aanzienlijke prestatieverbeteringen in openbare benchmarktests en echte agent-coderingsopdrachten; verbeterde front-end coderingservaring, met vooruitgang in zowel esthetiek als bruikbaarheid van front-end programmeren."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 is een MoE-architectuurbasis model met krachtige codeer- en agentmogelijkheden, met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. In benchmarktests voor algemene kennisredenering, programmeren, wiskunde en agent-gerelateerde categorieën presteert het K2-model beter dan andere gangbare open-source modellen."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
2227
2230
  },
@@ -290,6 +290,9 @@
290
290
  "Pro/moonshotai/Kimi-K2-Instruct": {
291
291
  "description": "Kimi K2 to podstawowy model architektury MoE o potężnych zdolnościach kodowania i agenta, z łączną liczbą parametrów 1 biliona i 32 miliardami aktywowanych parametrów. W testach wydajności w zakresie ogólnej wiedzy, programowania, matematyki i zadań agenta model K2 przewyższa inne popularne otwarte modele."
292
292
  },
293
+ "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
+ "description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
295
+ },
293
296
  "QwQ-32B-Preview": {
294
297
  "description": "QwQ-32B-Preview to innowacyjny model przetwarzania języka naturalnego, który efektywnie radzi sobie z złożonymi zadaniami generowania dialogów i rozumienia kontekstu."
295
298
  },
@@ -1778,6 +1781,9 @@
1778
1781
  "imagen-4.0-ultra-generate-preview-06-06": {
1779
1782
  "description": "Seria modeli tekst-na-obraz Imagen czwartej generacji, wersja Ultra"
1780
1783
  },
1784
+ "inclusionAI/Ling-mini-2.0": {
1785
+ "description": "Ling-mini-2.0 to mały, wysokowydajny model językowy oparty na architekturze MoE. Posiada 16 miliardów parametrów ogółem, jednak dla każdego tokena aktywowanych jest tylko 1,4 miliarda (nie obejmując osadzeń 789 milionów), co umożliwia bardzo wysoką prędkość generowania. Dzięki efektywnemu projektowi MoE oraz dużej, wysokiej jakości bazie treningowej, mimo że aktywowanych parametrów jest tylko 1,4 miliarda, Ling-mini-2.0 osiąga w zadaniach końcowych wydajność porównywalną z modelami dense LLM poniżej 10 miliardów parametrów oraz większymi modelami MoE."
1786
+ },
1781
1787
  "internlm/internlm2_5-7b-chat": {
1782
1788
  "description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach."
1783
1789
  },
@@ -2214,14 +2220,11 @@
2214
2220
  "description": "Kimi K2 to podstawowy model architektury MoE o potężnych zdolnościach kodowania i agenta, z łączną liczbą parametrów 1 biliona i 32 miliardami aktywowanych parametrów. W testach wydajności w zakresie ogólnej wiedzy, programowania, matematyki i zadań agenta model K2 przewyższa inne popularne otwarte modele."
2215
2221
  },
2216
2222
  "moonshotai/Kimi-K2-Instruct-0905": {
2217
- "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
2223
+ "description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
2218
2224
  },
2219
2225
  "moonshotai/kimi-k2-0905": {
2220
2226
  "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
2221
2227
  },
2222
- "moonshotai/kimi-k2-instruct": {
2223
- "description": "kimi-k2 to podstawowy model architektury MoE o wyjątkowych zdolnościach w zakresie kodowania i agentów, z łączną liczbą parametrów 1T i 32B aktywnych parametrów. W testach wydajnościowych obejmujących ogólną wiedzę, programowanie, matematykę i agentów, model K2 przewyższa inne popularne modele open source."
2224
- },
2225
2228
  "moonshotai/kimi-k2-instruct-0905": {
2226
2229
  "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
2227
2230
  },