@lobehub/lobehub 2.0.0-next.189 → 2.0.0-next.190
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +3 -8
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/models.json +3 -6
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/models.json +56 -6
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/models.json +23 -15
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/models.json +46 -7
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/models.json +3 -6
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/models.json +45 -6
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/models.json +35 -7
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/models.json +33 -7
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/models.json +37 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/models.json +3 -1
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/models.json +3 -1
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/models.json +43 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/models.json +3 -6
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/models.json +45 -6
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/models.json +52 -1
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/models.json +3 -7
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/models.json +3 -6
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,31 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
## [Version 2.0.0-next.190](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.189...v2.0.0-next.190)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2026-01-02**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Update i18n.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Update i18n, closes [#11100](https://github.com/lobehub/lobe-chat/issues/11100) ([bb4571b](https://github.com/lobehub/lobe-chat/commit/bb4571b))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
5
30
|
## [Version 2.0.0-next.189](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.188...v2.0.0-next.189)
|
|
6
31
|
|
|
7
32
|
<sup>Released on **2026-01-01**</sup>
|
package/changelog/v1.json
CHANGED
package/locales/ar/models.json
CHANGED
|
@@ -73,7 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick هو نموذج MoE كبير مع تفعيل خبراء فعال لأداء استدلال قوي.",
|
|
74
74
|
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
|
|
76
|
-
"MiniMax-M2.description": "
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "قدرات برمجية متعددة اللغات قوية، ترتقي بتجربة البرمجة إلى مستوى جديد. أسرع وأكثر كفاءة.",
|
|
77
|
+
"MiniMax-M2.1.description": "قدرات برمجية متعددة اللغات قوية، ترتقي بتجربة البرمجة إلى مستوى جديد.",
|
|
78
|
+
"MiniMax-M2.description": "مصمم خصيصًا للبرمجة الفعالة وتدفقات عمل الوكلاء.",
|
|
77
79
|
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
|
|
78
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال واسع النطاق بوزن مفتوح يستخدم انتباهًا هجينًا، يحتوي على 456 مليار معامل إجماليًا و~45.9 مليار مفعّلة لكل رمز. يدعم سياقًا يصل إلى 1M ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% عند توليد 100K رمز مقارنة بـ DeepSeek R1. بهيكل MoE وتدريب RL هجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام هندسة البرمجيات الواقعية.",
|
|
79
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 يعيد تعريف كفاءة الوكلاء. هو نموذج MoE مدمج وسريع وفعال من حيث التكلفة يحتوي على 230 مليار معامل إجماليًا و10 مليار مفعّلة، مصمم لمهام البرمجة والوكلاء من الدرجة الأولى مع الحفاظ على ذكاء عام قوي. مع 10 مليار معامل مفعّلة فقط، ينافس نماذج أكبر بكثير، مما يجعله مثاليًا للتطبيقات عالية الكفاءة.",
|
|
@@ -268,20 +270,15 @@
|
|
|
268
270
|
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
|
|
269
271
|
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
270
272
|
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic، مع تحسينات في المهارات وتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
|
|
272
273
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
|
|
274
274
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
275
275
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
|
276
276
|
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
277
277
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة البرق وقدرة على التفكير المطول.",
|
|
279
278
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
|
280
279
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
282
280
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
|
283
281
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكير متسلسل خطوة بخطوة مع تحكم دقيق لمستخدمي واجهة البرمجة.",
|
|
285
282
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
|
|
286
283
|
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
|
|
287
284
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
|
|
@@ -352,7 +349,6 @@
|
|
|
352
349
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
353
350
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
354
351
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
|
|
355
|
-
"deepseek-chat.description": "يوفر DeepSeek V3.2 توازنًا بين التفكير وطول المخرجات لمهام الأسئلة اليومية ووكلاء الذكاء الاصطناعي. تصل معاييره العامة إلى مستوى GPT-5، وهو أول من يدمج التفكير في استخدام الأدوات، متصدرًا تقييمات الوكلاء مفتوحة المصدر.",
|
|
356
352
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
|
357
353
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
358
354
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
@@ -375,7 +371,6 @@
|
|
|
375
371
|
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
|
|
376
372
|
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
|
|
377
373
|
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
|
|
378
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة تفكير قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية وأداء تفكير مماثل لـ Gemini-3.0-Pro.",
|
|
379
374
|
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
|
|
380
375
|
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
|
|
381
376
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
|
|
30
30
|
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
|
|
31
31
|
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
|
|
32
|
-
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
|
|
33
32
|
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
|
|
34
33
|
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
|
|
35
34
|
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
|
|
@@ -73,7 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
|
|
74
74
|
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
|
|
76
|
-
"MiniMax-M2.description": "
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "Мощни многоезични програмни възможности за цялостно подобрено програмиране. По-бързо, по-ефективно.",
|
|
77
|
+
"MiniMax-M2.1.description": "Мощни многоезични програмни възможности за цялостно подобрено програмиране",
|
|
78
|
+
"MiniMax-M2.description": "Създаден за ефективно кодиране и агентски работни потоци",
|
|
77
79
|
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
78
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е отворен модел с голям мащаб и хибридно внимание, с общо 456B параметри и ~45.9B активни на токен. Поддържа нативно 1M контекст и използва Flash Attention за 75% по-малко FLOPs при генериране на 100K токена спрямо DeepSeek R1. С MoE архитектура, CISPO и хибридно обучение с внимание и RL, постига водеща производителност при дълги входове и реални задачи по софтуерно инженерство.",
|
|
79
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 преосмисля ефективността на агентите. Това е компактен, бърз и икономичен MoE модел с 230B общо и 10B активни параметри, създаден за водещи задачи по програмиране и агенти, като същевременно запазва силен общ интелект. Със само 10B активни параметри, съперничи на много по-големи модели, което го прави идеален за приложения с висока ефективност.",
|
|
@@ -268,20 +270,15 @@
|
|
|
268
270
|
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
269
271
|
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
270
272
|
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от следващо поколение на Anthropic, подобрен във всички умения и надминаващ предишния флагман Claude 3 Opus в много тестове.",
|
|
272
273
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, поддържащ почти мигновени отговори или разширено мислене с прецизен контрол.",
|
|
274
274
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
275
275
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
276
276
|
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
277
277
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
|
|
279
278
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
280
279
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
282
280
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
283
281
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено стъпково мислене с прецизен контрол за API потребители.",
|
|
285
282
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
|
|
286
283
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
|
|
287
284
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
|
|
30
30
|
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
|
31
31
|
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
|
|
33
32
|
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
|
|
35
34
|
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
|
|
@@ -73,7 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick ist ein großes MoE-Modell mit effizienter Expertenaktivierung für starke Argumentationsleistung.",
|
|
74
74
|
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
|
|
76
|
-
"MiniMax-M2.description": "
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten für ein rundum verbessertes Programmiererlebnis. Schneller und effizienter.",
|
|
77
|
+
"MiniMax-M2.1.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten für ein rundum verbessertes Programmiererlebnis",
|
|
78
|
+
"MiniMax-M2.description": "Speziell entwickelt für effizientes Programmieren und Agenten-Workflows",
|
|
77
79
|
"MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
78
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein Open-Weights-Modell für großskalige hybride Aufmerksamkeits- und Schlussfolgerungsaufgaben mit insgesamt 456 Milliarden Parametern und etwa 45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ einen Kontext von 1 Million Tokens und nutzt Flash Attention, um die FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Durch die MoE-Architektur, CISPO und hybrides RL-Training erzielt es führende Leistungen bei Aufgaben mit langen Eingaben und realer Softwareentwicklung.",
|
|
79
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 definiert Effizienz für Agenten neu. Es handelt sich um ein kompaktes, schnelles und kosteneffizientes MoE-Modell mit insgesamt 230 Milliarden und 10 Milliarden aktiven Parametern, das für erstklassige Programmier- und Agentenaufgaben entwickelt wurde und gleichzeitig eine starke allgemeine Intelligenz beibehält. Trotz nur 10 Milliarden aktiver Parameter konkurriert es mit deutlich größeren Modellen und eignet sich ideal für Anwendungen mit hoher Effizienz.",
|
|
@@ -101,6 +103,7 @@
|
|
|
101
103
|
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Es wurde mit 14,8 Billionen hochwertigen Tokens vortrainiert und mit SFT und RL weiter abgestimmt. Es übertrifft andere Open-Source-Modelle und nähert sich führenden Closed-Source-Modellen an.",
|
|
102
104
|
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
|
|
103
105
|
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
|
|
106
|
+
"Pro/zai-org/glm-4.7.description": "GLM-4.7 ist das neue Flaggschiffmodell von Zhipu mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Es bietet umfassende Verbesserungen in allgemeiner Konversation, logischem Denken und Agentenfähigkeiten. GLM-4.7 stärkt das Interleaved Thinking (verzahntes Denken) und führt Preserved Thinking (bewahrtes Denken) sowie Turn-level Thinking (Denken auf Gesprächsebene) ein.",
|
|
104
107
|
"QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
|
|
105
108
|
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview ist ein Forschungsmodell von Qwen mit Schwerpunkt auf visuellem Denken. Es überzeugt durch seine Fähigkeit zur Analyse komplexer Szenen und zur Lösung visueller Mathematikaufgaben.",
|
|
106
109
|
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell zur Verbesserung der KI-Logik und des Denkvermögens.",
|
|
@@ -268,20 +271,20 @@
|
|
|
268
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
|
|
269
272
|
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
270
273
|
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
|
|
272
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Denkmodell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Besonders stark ist Sonnet in den Bereichen Programmierung, Datenwissenschaft, Bildverarbeitung und Agentenaufgaben.",
|
|
274
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
275
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
|
|
276
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
277
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
|
|
279
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
|
|
280
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben – herausragend in Leistung, Intelligenz, Sprachfluss und Verständnis.",
|
|
282
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
|
|
283
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
|
|
285
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
|
|
286
289
|
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
|
|
287
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
|
|
@@ -332,6 +335,53 @@
|
|
|
332
335
|
"computer-use-preview.description": "computer-use-preview ist ein spezialisiertes Modell für das Tool „Computer Use“, das darauf trainiert ist, computerbezogene Aufgaben zu verstehen und auszuführen.",
|
|
333
336
|
"dall-e-2.description": "Zweite Generation des DALL·E-Modells mit realistischeren, genaueren Bildgenerierungen und vierfacher Auflösung im Vergleich zur ersten Generation.",
|
|
334
337
|
"dall-e-3.description": "Das neueste DALL·E-Modell, veröffentlicht im November 2023, bietet realistischere, genauere Bildgenerierung mit höherem Detailgrad.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct bietet zuverlässige Anweisungsverarbeitung für verschiedenste Branchen.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „kontextuelle optische Kompression“ konzentriert. Es komprimiert Bildkontext effizient, verarbeitet Dokumente und wandelt sie in strukturierte Texte (z. B. Markdown) um. Es erkennt Text in Bildern präzise und eignet sich ideal für Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B destilliert das Chain-of-Thought-Verfahren von DeepSeek-R1-0528 in das Qwen3 8B Basismodell. Es erreicht SOTA unter offenen Modellen, übertrifft Qwen3 8B um 10 % bei AIME 2024 und entspricht der Leistung von Qwen3-235B-thinking. Herausragend in Mathematik, Programmierung und logischem Denken. Es nutzt die Qwen3-8B-Architektur mit dem Tokenizer von DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 nutzt zusätzliche Rechenleistung und algorithmische Optimierungen nach dem Training, um das Denkvermögen zu vertiefen. Es erzielt starke Ergebnisse in Benchmarks für Mathematik, Programmierung und logisches Denken und nähert sich führenden Modellen wie o3 und Gemini 2.5 Pro an.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Die destillierten Modelle von DeepSeek-R1 nutzen RL und Cold-Start-Daten zur Verbesserung des Denkvermögens und setzen neue Maßstäbe für offene Multi-Task-Modelle.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Die destillierten Modelle von DeepSeek-R1 nutzen RL und Cold-Start-Daten zur Verbesserung des Denkvermögens und setzen neue Maßstäbe für offene Multi-Task-Modelle.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Die destillierten Modelle von DeepSeek-R1 nutzen RL und Cold-Start-Daten zur Verbesserung des Denkvermögens und setzen neue Maßstäbe für offene Multi-Task-Modelle.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B ist aus Qwen2.5-32B destilliert und auf 800.000 kuratierten DeepSeek-R1-Beispielen feinabgestimmt. Es überzeugt in Mathematik, Programmierung und logischem Denken mit starken Ergebnissen bei AIME 2024, MATH-500 (94,3 % Genauigkeit) und GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B ist aus Qwen2.5-Math-7B destilliert und auf 800.000 kuratierten DeepSeek-R1-Beispielen feinabgestimmt. Es erzielt starke Leistungen mit 92,8 % bei MATH-500, 55,5 % bei AIME 2024 und einem CodeForces-Rating von 1189 für ein 7B-Modell.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 verbessert das Denkvermögen durch RL und Cold-Start-Daten, setzt neue Maßstäbe für offene Multi-Task-Modelle und übertrifft OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 ist ein Upgrade von DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct und kombiniert allgemeine und Programmierfähigkeiten. Es verbessert das Schreiben und das Befolgen von Anweisungen für eine bessere Präferenzanpassung und zeigt deutliche Fortschritte bei AlpacaEval 2.0, ArenaHard, AlignBench und MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus ist ein aktualisiertes V3.1-Modell, das als hybrides Agenten-LLM positioniert ist. Es behebt gemeldete Probleme, verbessert die Stabilität und Sprachkonsistenz und reduziert gemischte chinesisch/englische Ausgaben sowie fehlerhafte Zeichen. Es integriert Denk- und Nicht-Denk-Modi mit Chat-Vorlagen für flexibles Umschalten. Zudem verbessert es die Leistung von Code- und Suchagenten für zuverlässigere Toolnutzung und mehrstufige Aufgaben.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 verwendet eine hybride Denkarchitektur und unterstützt sowohl Denk- als auch Nicht-Denk-Modi.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp ist eine experimentelle V3.2-Version, die zur nächsten Architektur überleitet. Sie ergänzt DeepSeek Sparse Attention (DSA) auf Basis von V3.1-Terminus zur Verbesserung von Training und Inferenz bei langen Kontexten. Optimiert für Toolnutzung, Dokumentenverständnis und mehrstufiges Denken – ideal zur Erforschung effizienteren Denkens bei großem Kontextbudget.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Vortrainiert auf 14,8 B hochwertigen Tokens mit SFT und RL übertrifft es andere offene Modelle und nähert sich führenden geschlossenen Modellen an.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) ist ein innovatives Modell mit tiefem Sprachverständnis und Interaktionsfähigkeit.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Ein hochmodernes, effizientes LLM mit Stärken in logischem Denken, Mathematik und Programmierung.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
|
|
358
|
+
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt die Dialogfähigkeit des Chatmodells und die starke Programmierleistung des Codermodells mit besserer Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR ist ein Vision-Language-Modell von DeepSeek AI, das sich auf OCR und „kontextuelle optische Kompression“ konzentriert. Es komprimiert kontextuelle Informationen aus Bildern, verarbeitet Dokumente effizient und wandelt sie in strukturierte Textformate wie Markdown um. Es erkennt Text in Bildern präzise und eignet sich ideal für Dokumentendigitalisierung, Textextraktion und strukturierte Verarbeitung.",
|
|
363
|
+
"deepseek-r1-0528.description": "685B-Vollmodell veröffentlicht am 28.05.2025. DeepSeek-R1 nutzt großskaliges RL im Nachtraining, verbessert das Denkvermögen mit minimalen gelabelten Daten erheblich und erzielt starke Leistungen in Mathematik, Programmierung und natürlichem Sprachverständnis.",
|
|
364
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 ist das vollständige DeepSeek-R1-Denkmodell für schwierige Mathematik- und Logikaufgaben.",
|
|
365
|
+
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B Schnellversion mit Echtzeit-Websuche – schnellere Antworten bei gleichbleibender Leistung.",
|
|
366
|
+
"deepseek-r1-70b-online.description": "DeepSeek R1 70B Standardversion mit Echtzeit-Websuche – geeignet für aktuelle Chat- und Textaufgaben.",
|
|
367
|
+
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B kombiniert R1-Denkvermögen mit dem Llama-Ökosystem.",
|
|
368
|
+
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B ist aus Llama-3.1-8B destilliert unter Verwendung von DeepSeek R1-Ausgaben.",
|
|
369
|
+
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama ist aus DeepSeek-R1 auf Llama destilliert.",
|
|
370
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B ist ein R1-Destillat auf Basis von Qianfan-70B mit hohem Mehrwert.",
|
|
371
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B ist ein R1-Destillat auf Basis von Qianfan-8B für kleine und mittlere Anwendungen.",
|
|
372
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B ist ein R1-Destillat auf Basis von Llama-70B.",
|
|
373
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B ist ein ultraleichtes Destillatmodell für Umgebungen mit sehr geringen Ressourcen.",
|
|
374
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B ist ein mittelgroßes Destillatmodell für den Einsatz in verschiedenen Szenarien.",
|
|
375
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B ist ein R1-Destillat auf Basis von Qwen-32B – ausgewogen in Leistung und Kosten.",
|
|
376
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B ist ein leichtgewichtiges Destillatmodell für Edge- und private Unternehmensumgebungen.",
|
|
377
|
+
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen ist aus DeepSeek-R1 auf Qwen destilliert.",
|
|
378
|
+
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
|
|
379
|
+
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
|
|
380
|
+
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Denkmodus gibt eine Chain-of-Thought vor der finalen Antwort aus, um die Genauigkeit zu verbessern.",
|
|
382
|
+
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
|
|
383
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
|
|
384
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
|
|
335
385
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
|
|
336
386
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
|
|
337
387
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
|
|
30
30
|
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
|
|
31
31
|
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
|
|
33
32
|
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
|
|
35
34
|
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
|
|
@@ -73,7 +73,9 @@
|
|
|
73
73
|
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is a large MoE model with efficient expert activation for strong reasoning performance.",
|
|
74
74
|
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
|
|
75
75
|
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
|
|
76
|
-
"MiniMax-M2.description": "
|
|
76
|
+
"MiniMax-M2.1-Lightning.description": "强大多语言编程实力,全面升级编程体验。更快,更高效。",
|
|
77
|
+
"MiniMax-M2.1.description": "强大多语言编程实力,全面升级编程体验",
|
|
78
|
+
"MiniMax-M2.description": "专为高效编码与Agent工作流而生",
|
|
77
79
|
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
|
|
78
80
|
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
|
|
79
81
|
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefines agent efficiency. It is a compact, fast, cost-effective MoE model with 230B total and 10B active parameters, built for top-tier coding and agent tasks while retaining strong general intelligence. With only 10B active parameters, it rivals much larger models, making it ideal for high-efficiency applications.",
|
|
@@ -101,6 +103,7 @@
|
|
|
101
103
|
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is a 671B-parameter MoE model using MLA and DeepSeekMoE with loss-free load balancing for efficient inference and training. Pretrained on 14.8T high-quality tokens and further tuned with SFT and RL, it outperforms other open models and approaches leading closed models.",
|
|
102
104
|
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
|
|
103
105
|
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinking’s multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
|
|
106
|
+
"Pro/zai-org/glm-4.7.description": "GLM-4.7 是智谱新一代旗舰模型,总参数量 355B,激活参数量 32B,在通用对话、推理和智能体能力方面全面升级。GLM-4.7 增强了 Interleaved Thinking(交错思考),并引入了 Preserved Thinking(保留思考)和 Turn-level Thinking(轮级思考)。",
|
|
104
107
|
"QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
|
|
105
108
|
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview is a research model from Qwen focused on visual reasoning, with strengths in complex scene understanding and visual math problems.",
|
|
106
109
|
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improved AI reasoning.",
|
|
@@ -268,20 +271,20 @@
|
|
|
268
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
|
|
269
272
|
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
270
273
|
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
271
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
|
|
272
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
|
|
273
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
|
|
274
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
275
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
|
276
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
277
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
|
278
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
|
|
279
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
|
280
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
281
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
282
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
|
283
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
284
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
285
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
|
286
289
|
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
|
|
287
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
|
|
@@ -352,7 +355,7 @@
|
|
|
352
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
353
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
354
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
|
|
355
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
|
|
356
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
|
357
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
358
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
@@ -375,7 +378,7 @@
|
|
|
375
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
|
376
379
|
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
|
377
380
|
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
|
378
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
|
|
379
382
|
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
|
380
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
|
381
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
|
@@ -385,6 +388,7 @@
|
|
|
385
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1 is a next-generation reasoning model with improved complex reasoning and chain-of-thought, suited for tasks requiring deep analysis.",
|
|
386
389
|
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduces sparse attention to improve training and inference efficiency on long text, at a lower price than deepseek-v3.1.",
|
|
387
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think is a full deep-thinking model with stronger long-chain reasoning.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首个将思考融入工具使用的混合推理模型,用高效架构省算力、大规模强化学习提能力、大规模合成任务数据强泛化,三者结合性能媲美 GPT-5-High,输出长度大幅降低,显著减少了计算开销与用户等待时间。",
|
|
388
392
|
"deepseek-v3.description": "DeepSeek-V3 is a powerful MoE model with 671B total parameters and 37B active per token.",
|
|
389
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small is a lightweight multimodal version for resource-constrained and high-concurrency use.",
|
|
390
394
|
"deepseek-vl2.description": "DeepSeek VL2 is a multimodal model for image-text understanding and fine-grained visual QA.",
|
|
@@ -430,6 +434,7 @@
|
|
|
430
434
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking significantly strengthens reasoning, further improving core abilities in coding, math, and logical reasoning over Doubao-1.5-thinking-pro, while adding vision understanding. It supports a 256k context window and up to 16k output tokens.",
|
|
431
435
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision is a visual deep-reasoning model that delivers stronger multimodal understanding and reasoning for education, image review, inspection/security, and AI search Q&A. It supports a 256k context window and up to 64k output tokens.",
|
|
432
436
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6 is a new multimodal deep-reasoning model with auto, thinking, and non-thinking modes. In non-thinking mode, it significantly outperforms Doubao-1.5-pro/250115. It supports a 256k context window and up to 16k output tokens.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 有着更强的多模态理解能力和 Agent 能力,支持文本/图片/视频输入与上下文缓存,可在复杂任务中提供更出色的表现。",
|
|
433
438
|
"doubao-seed-code.description": "Doubao-Seed-Code is deeply optimized for agentic coding, supports multimodal inputs (text/image/video) and a 256k context window, is compatible with the Anthropic API, and fits coding, vision understanding, and agent workflows.",
|
|
434
439
|
"doubao-seededit-3-0-i2i-250628.description": "The Doubao image model from ByteDance Seed supports text and image inputs with highly controllable, high-quality image generation. It supports text-guided image editing, with output sizes between 512 and 1536 on the long side.",
|
|
435
440
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
|
|
@@ -466,7 +471,7 @@
|
|
|
466
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
|
|
467
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
|
468
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
|
469
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
|
|
470
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
|
471
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
|
472
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
|
@@ -474,8 +479,8 @@
|
|
|
474
479
|
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
|
475
480
|
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
|
476
481
|
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
|
477
|
-
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team
|
|
478
|
-
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
|
|
483
|
+
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
|
|
479
484
|
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
|
480
485
|
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
|
481
486
|
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
|
@@ -521,8 +526,8 @@
|
|
|
521
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
522
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
523
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
|
|
524
|
-
"gemini-3-flash-preview.description": "Gemini 3 Flash
|
|
525
|
-
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash 是为速度而打造的最智能的模型,将前沿智能与卓越的搜索接地相结合。",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。",
|
|
526
531
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.",
|
|
527
532
|
"gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
|
|
528
533
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
@@ -555,7 +560,8 @@
|
|
|
555
560
|
"glm-4.5-x.description": "GLM-4.5 fast edition, delivering strong performance with generation speeds up to 100 tokens/sec.",
|
|
556
561
|
"glm-4.5.description": "Zhipu flagship model with a switchable thinking mode, delivering open-source SOTA overall and up to 128K context.",
|
|
557
562
|
"glm-4.5v.description": "Zhipu’s next-generation MoE vision reasoning model has 106B total parameters with 12B active, achieving SOTA among similarly sized open-source multimodal models across image, video, document understanding, and GUI tasks.",
|
|
558
|
-
"glm-4.6.description": "
|
|
563
|
+
"glm-4.6.description": "智谱最新旗舰模型 GLM-4.6 (355B) 在高级编码、长文本处理、推理与智能体能力上全面超越前代,尤其在编程能力上对齐 Claude Sonnet 4,成为国内顶尖的 Coding 模型。",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升。",
|
|
559
565
|
"glm-4.description": "GLM-4 is the older flagship released in Jan 2024, now replaced by the stronger GLM-4-0520.",
|
|
560
566
|
"glm-4v-flash.description": "GLM-4V-Flash focuses on efficient single-image understanding for fast analysis scenarios such as real-time or batch image processing.",
|
|
561
567
|
"glm-4v-plus-0111.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.",
|
|
@@ -705,6 +711,7 @@
|
|
|
705
711
|
"hunyuan-turbos-role-plus.description": "Latest roleplay model, officially fine-tuned on roleplay datasets, delivering stronger baseline performance for roleplay scenarios.",
|
|
706
712
|
"hunyuan-turbos-vision-20250619.description": "Latest TurboS vision-language flagship with major gains on image-text tasks such as entity recognition, knowledge QA, copywriting, and photo-based problem solving.",
|
|
707
713
|
"hunyuan-turbos-vision.description": "A next-gen vision-language flagship based on the latest TurboS, focused on image-text understanding tasks like entity recognition, knowledge QA, copywriting, and photo-based problem solving.",
|
|
714
|
+
"hunyuan-vision-1.5-instruct.description": "基于文本 TurboS 基座生产的图生文快思考模型,相比上一版本在图像基础识别、图像分析推理等维度都有明显的效果提升。",
|
|
708
715
|
"hunyuan-vision.description": "Latest multimodal model supporting image + text input to generate text.",
|
|
709
716
|
"image-01-live.description": "An image generation model with fine detail, supporting text-to-image and controllable style presets.",
|
|
710
717
|
"image-01.description": "A new image generation model with fine detail, supporting text-to-image and image-to-image.",
|
|
@@ -855,7 +862,8 @@
|
|
|
855
862
|
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 is a language model from Microsoft AI that excels at complex dialogue, multilingual tasks, reasoning, and assistants.",
|
|
856
863
|
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B is Microsoft AI’s most advanced Wizard model with highly competitive performance.",
|
|
857
864
|
"minicpm-v.description": "MiniCPM-V is OpenBMB’s next-generation multimodal model with excellent OCR and multimodal understanding for wide-ranging use cases.",
|
|
858
|
-
"minimax-m2.description": "MiniMax
|
|
865
|
+
"minimax-m2.1.description": "MiniMax-M2.1 是 MiniMax 系列的最新版本,专为多语言编程和真实世界复杂任务优化。作为一款 AI 原生模型,MiniMax-M2.1 在模型性能、智能体框架支持以及多场景适配方面实现了显著提升,旨在帮助企业和个人更快地找到 AI 原生的工作与生活方式。",
|
|
866
|
+
"minimax-m2.description": "MiniMax M2 是专为编码和代理工作流程构建的高效大型语言模型。",
|
|
859
867
|
"minimax/minimax-m2.description": "MiniMax-M2 is a high-value model that excels at coding and agent tasks for many engineering scenarios.",
|
|
860
868
|
"minimaxai/minimax-m2.description": "MiniMax-M2 is a compact, fast, cost-effective MoE model (230B total, 10B active) built for top-tier coding and agent performance while retaining strong general intelligence. It excels at multi-file edits, code-run-fix loops, test validation, and complex toolchains.",
|
|
861
869
|
"ministral-3b-latest.description": "Ministral 3B is Mistral’s top-tier edge model.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
33
32
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
35
34
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|