@lobehub/chat 1.133.4 → 1.133.6
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +67 -0
- package/changelog/v1.json +24 -0
- package/locales/ar/models.json +7 -1
- package/locales/bg-BG/models.json +7 -1
- package/locales/de-DE/models.json +7 -1
- package/locales/en-US/models.json +7 -1
- package/locales/es-ES/models.json +7 -1
- package/locales/fa-IR/models.json +7 -1
- package/locales/fr-FR/models.json +7 -1
- package/locales/it-IT/models.json +7 -1
- package/locales/ja-JP/models.json +7 -1
- package/locales/ko-KR/models.json +7 -1
- package/locales/nl-NL/models.json +7 -1
- package/locales/pl-PL/models.json +7 -1
- package/locales/pt-BR/models.json +7 -1
- package/locales/ru-RU/models.json +7 -1
- package/locales/tr-TR/models.json +7 -1
- package/locales/vi-VN/models.json +7 -1
- package/locales/zh-CN/models.json +7 -1
- package/locales/zh-TW/models.json +7 -1
- package/package.json +2 -2
- package/packages/database/src/models/__tests__/aiModel.test.ts +3 -0
- package/packages/database/src/models/aiModel.ts +18 -2
- package/packages/model-bank/src/aiModels/aihubmix.ts +41 -1
- package/packages/model-bank/src/aiModels/deepseek.ts +12 -12
- package/packages/model-bank/src/aiModels/google.ts +225 -2
- package/packages/model-bank/src/aiModels/hunyuan.ts +39 -15
- package/packages/model-bank/src/aiModels/novita.ts +17 -3
- package/packages/model-bank/src/aiModels/siliconcloud.ts +68 -3
- package/packages/model-bank/src/types/aiModel.ts +13 -9
- package/packages/model-runtime/src/core/ModelRuntime.ts +1 -1
- package/packages/model-runtime/src/core/RouterRuntime/createRuntime.ts +0 -1
- package/packages/model-runtime/src/core/streams/protocol.ts +12 -12
- package/packages/model-runtime/src/providers/google/createImage.ts +13 -4
- package/packages/model-runtime/src/providers/google/index.test.ts +39 -1
- package/packages/model-runtime/src/providers/google/index.ts +62 -22
- package/packages/model-runtime/src/utils/modelParse.ts +1 -1
- package/packages/types/src/auth.ts +2 -0
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelItem.tsx +6 -3
- package/src/config/modelProviders/deepseek.ts +4 -7
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +2 -2
- package/src/features/ChatInput/ActionBar/Model/ReasoningTokenSlider.tsx +12 -2
- package/src/features/ChatInput/ActionBar/Model/ThinkingBudgetSlider.tsx +29 -3
- package/src/server/modules/ModelRuntime/index.test.ts +13 -0
- package/src/server/modules/ModelRuntime/index.ts +4 -2
- package/src/server/routers/lambda/aiModel.test.ts +2 -0
- package/src/services/__tests__/models.test.ts +95 -5
- package/src/services/_auth.ts +8 -1
- package/src/services/chat/clientModelRuntime.test.ts +68 -17
- package/src/services/chat/clientModelRuntime.ts +15 -4
- package/src/services/chat/helper.ts +11 -0
- package/src/services/chat/index.ts +11 -15
- package/src/services/models.ts +14 -4
- package/packages/model-runtime/src/utils/usageConverter.test.ts +0 -351
- package/packages/model-runtime/src/utils/usageConverter.ts +0 -122
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,73 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
### [Version 1.133.6](https://github.com/lobehub/lobe-chat/compare/v1.133.5...v1.133.6)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2025-10-04**</sup>
|
|
8
|
+
|
|
9
|
+
#### 🐛 Bug Fixes
|
|
10
|
+
|
|
11
|
+
- **misc**: `type` not preserved when model is disabled or sorted.
|
|
12
|
+
|
|
13
|
+
#### 💄 Styles
|
|
14
|
+
|
|
15
|
+
- **misc**: Nano banana support `aspect_ratio`.
|
|
16
|
+
|
|
17
|
+
<br/>
|
|
18
|
+
|
|
19
|
+
<details>
|
|
20
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
21
|
+
|
|
22
|
+
#### What's fixed
|
|
23
|
+
|
|
24
|
+
- **misc**: `type` not preserved when model is disabled or sorted, closes [#9530](https://github.com/lobehub/lobe-chat/issues/9530) ([476b897](https://github.com/lobehub/lobe-chat/commit/476b897))
|
|
25
|
+
|
|
26
|
+
#### Styles
|
|
27
|
+
|
|
28
|
+
- **misc**: Nano banana support `aspect_ratio`, closes [#9528](https://github.com/lobehub/lobe-chat/issues/9528) ([ae3ed6e](https://github.com/lobehub/lobe-chat/commit/ae3ed6e))
|
|
29
|
+
|
|
30
|
+
</details>
|
|
31
|
+
|
|
32
|
+
<div align="right">
|
|
33
|
+
|
|
34
|
+
[](#readme-top)
|
|
35
|
+
|
|
36
|
+
</div>
|
|
37
|
+
|
|
38
|
+
### [Version 1.133.5](https://github.com/lobehub/lobe-chat/compare/v1.133.4...v1.133.5)
|
|
39
|
+
|
|
40
|
+
<sup>Released on **2025-10-04**</sup>
|
|
41
|
+
|
|
42
|
+
#### 🐛 Bug Fixes
|
|
43
|
+
|
|
44
|
+
- **misc**: Custom provider fails when client requests are enabled.
|
|
45
|
+
|
|
46
|
+
#### 💄 Styles
|
|
47
|
+
|
|
48
|
+
- **misc**: Optimized `extendParams` UI, update i18n.
|
|
49
|
+
|
|
50
|
+
<br/>
|
|
51
|
+
|
|
52
|
+
<details>
|
|
53
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
54
|
+
|
|
55
|
+
#### What's fixed
|
|
56
|
+
|
|
57
|
+
- **misc**: Custom provider fails when client requests are enabled, closes [#9534](https://github.com/lobehub/lobe-chat/issues/9534) ([8b12fdf](https://github.com/lobehub/lobe-chat/commit/8b12fdf))
|
|
58
|
+
|
|
59
|
+
#### Styles
|
|
60
|
+
|
|
61
|
+
- **misc**: Optimized `extendParams` UI, closes [#9457](https://github.com/lobehub/lobe-chat/issues/9457) ([582f6d1](https://github.com/lobehub/lobe-chat/commit/582f6d1))
|
|
62
|
+
- **misc**: Update i18n, closes [#9514](https://github.com/lobehub/lobe-chat/issues/9514) ([6430f57](https://github.com/lobehub/lobe-chat/commit/6430f57))
|
|
63
|
+
|
|
64
|
+
</details>
|
|
65
|
+
|
|
66
|
+
<div align="right">
|
|
67
|
+
|
|
68
|
+
[](#readme-top)
|
|
69
|
+
|
|
70
|
+
</div>
|
|
71
|
+
|
|
5
72
|
### [Version 1.133.4](https://github.com/lobehub/lobe-chat/compare/v1.133.3...v1.133.4)
|
|
6
73
|
|
|
7
74
|
<sup>Released on **2025-10-01**</sup>
|
package/changelog/v1.json
CHANGED
|
@@ -1,4 +1,28 @@
|
|
|
1
1
|
[
|
|
2
|
+
{
|
|
3
|
+
"children": {
|
|
4
|
+
"fixes": [
|
|
5
|
+
"type not preserved when model is disabled or sorted."
|
|
6
|
+
],
|
|
7
|
+
"improvements": [
|
|
8
|
+
"Nano banana support aspect_ratio."
|
|
9
|
+
]
|
|
10
|
+
},
|
|
11
|
+
"date": "2025-10-04",
|
|
12
|
+
"version": "1.133.6"
|
|
13
|
+
},
|
|
14
|
+
{
|
|
15
|
+
"children": {
|
|
16
|
+
"fixes": [
|
|
17
|
+
"Custom provider fails when client requests are enabled."
|
|
18
|
+
],
|
|
19
|
+
"improvements": [
|
|
20
|
+
"Optimized extendParams UI, update i18n."
|
|
21
|
+
]
|
|
22
|
+
},
|
|
23
|
+
"date": "2025-10-04",
|
|
24
|
+
"version": "1.133.5"
|
|
25
|
+
},
|
|
2
26
|
{
|
|
3
27
|
"children": {
|
|
4
28
|
"fixes": [
|
package/locales/ar/models.json
CHANGED
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: نموذج استدلال من الجيل التالي يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقًا."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp يُدخل آلية الانتباه المتفرق، بهدف تحسين كفاءة التدريب والاستدلال عند معالجة النصوص الطويلة، بسعر أقل من deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 هو نموذج مختلط خبير يحتوي على 685B من المعلمات، وهو أحدث إصدار من سلسلة نماذج الدردشة الرائدة لفريق DeepSeek.\n\nيستفيد من نموذج [DeepSeek V3](/deepseek/deepseek-chat-v3) ويظهر أداءً ممتازًا في مجموعة متنوعة من المهام."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "سلسلة نماذج GLM-4.1V-Thinking هي أقوى نماذج اللغة البصرية المعروفة على مستوى 10 مليارات معلمة، وتدمج مهام اللغة البصرية المتقدمة من نفس المستوى، بما في ذلك فهم الفيديو، الأسئلة والأجوبة على الصور، حل المسائل العلمية، التعرف على النصوص OCR، تفسير الوثائق والرسوم البيانية، وكلاء واجهة المستخدم الرسومية، ترميز صفحات الويب الأمامية، والتثبيت الأرضي، وغيرها. تتفوق قدرات هذه المهام على نموذج Qwen2.5-VL-72B الذي يحتوي على أكثر من 8 أضعاف عدد المعلمات. من خلال تقنيات التعلم المعزز الرائدة، يتقن النموذج تحسين دقة وإثراء الإجابات عبر استدلال سلسلة التفكير، متفوقًا بشكل ملحوظ على النماذج التقليدية غير المعتمدة على التفكير من حيث النتائج النهائية وقابلية التفسير."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "نموذج الذكاء الاصطناعي الرائد من Zhipu، يدعم تبديل أوضاع التفكير، ويحقق مستوى متقدمًا في القدرات الشاملة مقارنة بالنماذج مفتوحة المصدر، مع طول سياق يصل إلى 128 ألف."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "نسخة خفيفة من GLM-4.5، تجمع بين الأداء والقيمة، وتدعم التبديل المرن بين نماذج التفكير المختلطة."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "نموذج استدلال بصري من الجيل الجديد لشركة Zhipu مبني على بنية MOE، بإجمالي 106 مليار معامل و12 مليار معامل نشط، وقد بلغ مستوى الأداء الأعلى (SOTA) بين نماذج التعدد الوسائط مفتوحة المصدر المماثلة على مستوى العالم في عدة اختبارات معيارية، ويغطي مهامًا شائعة مثل فهم الصور والفيديو والمستندات وواجهات المستخدم الرسومية (GUI)."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "أحدث نموذج رائد من Zhipu GLM-4.6 (355B) يتفوق بشكل شامل على الأجيال السابقة في الترميز المتقدم، معالجة النصوص الطويلة، الاستدلال، وقدرات الوكيل الذكي، وخاصة في قدرات البرمجة التي تتوافق مع Claude Sonnet 4، ليصبح نموذج الترميز الرائد محليًا."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V يوفر قدرات قوية في فهم الصور والاستدلال، ويدعم مجموعة متنوعة من المهام البصرية."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: следващо поколение модел за разсъждение, подобряващ способностите за сложни разсъждения и свързано мислене, подходящ за задачи, изискващи задълбочен анализ."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp въвежда механизъм за разредено внимание, с цел подобряване на ефективността при обучение и извод при обработка на дълги текстове, като цената е по-ниска от тази на deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 е експертен смесен модел с 685B параметри, последната итерация на флагманската серия чат модели на екипа DeepSeek.\n\nТой наследява модела [DeepSeek V3](/deepseek/deepseek-chat-v3) и показва отлични резултати в различни задачи."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "Серията модели GLM-4.1V-Thinking е най-мощният визуален модел сред известните VLM модели с размер около 10 милиарда параметри, обединяващ водещи в класа си задачи за визуално-езиково разбиране, включително видео разбиране, въпроси и отговори върху изображения, решаване на предметни задачи, OCR разпознаване на текст, интерпретация на документи и графики, GUI агент, кодиране на уеб страници, Grounding и други. Някои от задачите дори превъзхождат модели с 8 пъти повече параметри като Qwen2.5-VL-72B. Чрез водещи техники за подсилено обучение моделът овладява разсъждения чрез вериги на мисълта, което значително подобрява точността и богатството на отговорите, превъзхождайки традиционните модели без мисловен процес по отношение на крайния резултат и обяснимостта."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "Флагманският модел на Zhipu, поддържа превключване на режим на мислене, с общи възможности, достигащи нивото на SOTA за отворени модели, с контекстова дължина до 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Леката версия на GLM-4.5, балансираща между производителност и цена, с възможност за гъвкаво превключване на смесен мисловен режим."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Новото поколение визуален модел за разсъждение на Zhipu, базиран на MOE архитектура, с общо 106B параметри и 12B активни параметри, постига SOTA сред отворените мултимодални модели в своя клас в различни бенчмаркове, обхващайки често срещани задачи като обработка на изображения, видео, разбиране на документи и GUI задачи."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Най-новият флагмански модел на Zhipu GLM-4.6 (355B) превъзхожда предишното поколение във високо ниво на кодиране, обработка на дълги текстове, извод и интелигентни агенти, особено в програмирането, където е съпоставим с Claude Sonnet 4, ставайки водещият модел за кодиране в страната."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V предлага мощни способности за разбиране и разсъждение на изображения, поддържаща множество визуални задачи."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: Ein Inferenzmodell der nächsten Generation, das komplexe Schlussfolgerungen und verknüpfte Denkfähigkeiten verbessert und sich für Aufgaben eignet, die tiefgehende Analysen erfordern."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp führt einen sparsamen Aufmerksamkeitsmechanismus ein, um die Effizienz beim Training und der Inferenz bei der Verarbeitung langer Texte zu verbessern. Der Preis liegt unter dem von deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 ist ein Experten-Mischmodell mit 685B Parametern und die neueste Iteration der Flaggschiff-Chatmodellreihe des DeepSeek-Teams.\n\nEs erbt das [DeepSeek V3](/deepseek/deepseek-chat-v3) Modell und zeigt hervorragende Leistungen in verschiedenen Aufgaben."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "Die GLM-4.1V-Thinking-Serie ist das leistungsstärkste visuelle Modell unter den bekannten 10-Milliarden-Parameter-VLMs und integriert SOTA-Leistungen auf diesem Niveau in verschiedenen visuellen Sprachaufgaben, darunter Videoverstehen, Bildfragen, Fachaufgaben, OCR-Texterkennung, Dokumenten- und Diagramminterpretation, GUI-Agenten, Frontend-Web-Coding und Grounding. In vielen Aufgaben übertrifft es sogar das Qwen2.5-VL-72B mit achtmal so vielen Parametern. Durch fortschrittliche Verstärkungslernverfahren beherrscht das Modell die Chain-of-Thought-Schlussfolgerung, was die Genauigkeit und Detailtiefe der Antworten deutlich verbessert und in Bezug auf Endergebnis und Erklärbarkeit traditionelle Nicht-Thinking-Modelle übertrifft."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "Das
|
|
1449
|
+
"description": "Das Flaggschiff-Modell von Zhipu unterstützt den Wechsel zwischen Denkmodi und erreicht eine umfassende Leistungsfähigkeit auf dem Niveau der besten Open-Source-Modelle. Die Kontextlänge beträgt bis zu 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Die leichtgewichtige Version von GLM-4.5, die Leistung und Kosten-Nutzen-Verhältnis ausbalanciert und flexibel zwischen hybriden Denkmodellen wechseln kann."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Das neue visuelle Inferenzmodell der nächsten Generation von Zhipu, basierend auf der MOE-Architektur, verfügt über 106B Gesamtparameter und 12B aktivierte Parameter und erzielt in verschiedenen Benchmarks State-of-the-Art‑Ergebnisse (SOTA) unter weltweit vergleichbaren Open‑Source‑multimodalen Modellen. Es deckt gängige Aufgaben wie Bild-, Video- und Dokumentenverständnis sowie GUI‑Aufgaben ab."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Das neueste Flaggschiff-Modell von Zhipu, GLM-4.6 (355B), übertrifft die Vorgängergeneration in fortgeschrittener Codierung, Langtextverarbeitung, Inferenz und Agentenfähigkeiten umfassend. Besonders in der Programmierfähigkeit ist es mit Claude Sonnet 4 vergleichbar und gilt als eines der besten Coding-Modelle im Inland."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V bietet starke Fähigkeiten zur Bildverständnis und -schlussfolgerung und unterstützt eine Vielzahl visueller Aufgaben."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: The next-generation reasoning model that enhances complex reasoning and chain-of-thought capabilities, suitable for tasks requiring in-depth analysis."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp introduces a sparse attention mechanism designed to enhance training and inference efficiency when processing long texts, priced lower than deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 is a 685B parameter expert mixture model, the latest iteration in the DeepSeek team's flagship chat model series.\n\nIt inherits from the [DeepSeek V3](/deepseek/deepseek-chat-v3) model and performs excellently across various tasks."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "The GLM-4.1V-Thinking series represents the most powerful vision-language models known at the 10B parameter scale, integrating state-of-the-art capabilities across various vision-language tasks such as video understanding, image question answering, academic problem solving, OCR text recognition, document and chart interpretation, GUI agents, front-end web coding, and grounding. Its performance in many tasks even surpasses that of Qwen2.5-VL-72B, which has over eight times the parameters. Leveraging advanced reinforcement learning techniques, the model masters Chain-of-Thought reasoning to improve answer accuracy and richness, significantly outperforming traditional non-thinking models in final results and interpretability."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "Zhipu's
|
|
1449
|
+
"description": "Zhipu's flagship model supports thinking mode switching, with comprehensive capabilities reaching the state-of-the-art level among open-source models, and a context length of up to 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "A lightweight version of GLM-4.5 balancing performance and cost-effectiveness, capable of flexibly switching hybrid thinking models."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Zhipu's next-generation visual reasoning model is built on a Mixture-of-Experts (MoE) architecture. With 106B total parameters and 12B activated parameters, it achieves state-of-the-art performance among open-source multimodal models of similar scale across various benchmarks, supporting common tasks such as image, video, document understanding, and GUI-related tasks."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Zhipu's latest flagship model GLM-4.6 (355B) surpasses its predecessor comprehensively in advanced encoding, long text processing, reasoning, and agent capabilities, especially aligning with Claude Sonnet 4 in programming skills, making it a top-tier coding model in China."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V provides strong image understanding and reasoning capabilities, supporting various visual tasks."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: modelo de inferencia de próxima generación que mejora las capacidades de razonamiento complejo y pensamiento en cadena, ideal para tareas que requieren análisis profundo."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp introduce el mecanismo de atención dispersa, con el objetivo de mejorar la eficiencia en el entrenamiento y la inferencia al procesar textos largos, con un precio inferior al de deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 es un modelo experto de mezcla de 685B parámetros, la última iteración de la serie de modelos de chat insignia del equipo de DeepSeek.\n\nHereda el modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) y se desempeña excepcionalmente en diversas tareas."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "La serie GLM-4.1V-Thinking es el modelo visual más potente conocido en la categoría de VLMs de 10 mil millones de parámetros, integrando tareas de lenguaje visual de última generación (SOTA) en su nivel, incluyendo comprensión de video, preguntas sobre imágenes, resolución de problemas académicos, reconocimiento OCR, interpretación de documentos y gráficos, agentes GUI, codificación web frontend, grounding, entre otros. En muchas tareas, supera incluso a modelos con 8 veces más parámetros como Qwen2.5-VL-72B. Gracias a técnicas avanzadas de aprendizaje reforzado, el modelo domina el razonamiento mediante cadenas de pensamiento para mejorar la precisión y riqueza de las respuestas, superando significativamente a los modelos tradicionales sin pensamiento en términos de resultados y explicabilidad."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "Modelo insignia de Zhipu, que soporta el cambio de modo de pensamiento, con una capacidad integral que alcanza el nivel SOTA de los modelos de código abierto, y una longitud de contexto de hasta 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Versión ligera de GLM-4.5 que equilibra rendimiento y costo, con capacidad flexible para cambiar entre modelos de pensamiento híbrido."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "La nueva generación del modelo de razonamiento visual de Zhipu, basada en la arquitectura MOE, cuenta con 106B de parámetros totales y 12B de parámetros de activación; alcanza el estado del arte (SOTA) entre los modelos multimodales de código abierto de la misma categoría a nivel mundial en diversas pruebas de referencia, y cubre tareas comunes como comprensión de imágenes, vídeo, documentos y tareas de interfaz gráfica de usuario (GUI)."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "El último modelo insignia de Zhipu, GLM-4.6 (355B), supera ampliamente a la generación anterior en codificación avanzada, procesamiento de textos largos, inferencia y capacidades de agentes inteligentes, especialmente en habilidades de programación alineadas con Claude Sonnet 4, convirtiéndose en el modelo de codificación líder en China."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V proporciona una poderosa capacidad de comprensión e inferencia de imágenes, soportando diversas tareas visuales."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: مدل استنتاج نسل بعدی که تواناییهای استنتاج پیچیده و تفکر زنجیرهای را بهبود بخشیده و برای وظایفی که نیاز به تحلیل عمیق دارند مناسب است."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp مکانیزم توجه پراکنده را معرفی میکند که هدف آن افزایش کارایی آموزش و استنتاج در پردازش متون بلند است و قیمت آن کمتر از deepseek-v3.1 میباشد."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 یک مدل ترکیبی متخصص با 685B پارامتر است و جدیدترین نسخه از سری مدلهای چت پرچمدار تیم DeepSeek میباشد.\n\nاین مدل از [DeepSeek V3](/deepseek/deepseek-chat-v3) به ارث برده و در انواع وظایف عملکرد عالی از خود نشان میدهد."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "سری مدلهای GLM-4.1V-Thinking قویترین مدلهای زبان تصویری (VLM) در سطح 10 میلیارد پارامتر شناخته شده تا کنون هستند که وظایف زبان تصویری پیشرفته همرده SOTA را شامل میشوند، از جمله درک ویدئو، پرسش و پاسخ تصویری، حل مسائل علمی، شناسایی متن OCR، تفسیر اسناد و نمودارها، عاملهای رابط کاربری گرافیکی، کدنویسی صفحات وب فرانتاند، و گراندینگ. تواناییهای این مدلها حتی از مدل Qwen2.5-VL-72B با 8 برابر پارامتر بیشتر نیز فراتر رفته است. با استفاده از فناوری پیشرفته یادگیری تقویتی، مدل توانسته است با استدلال زنجیره تفکر دقت و غنای پاسخها را افزایش دهد و از نظر نتایج نهایی و قابلیت تبیین به طور قابل توجهی از مدلهای غیرتفکری سنتی پیشی بگیرد."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "مدل پرچمدار Zhipu که از حالتهای تفکر متنوع پشتیبانی میکند، تواناییهای جامع آن به سطح SOTA مدلهای متنباز رسیده و طول متن زمینهای تا ۱۲۸ هزار کاراکتر را پشتیبانی میکند."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "نسخه سبک GLM-4.5 که تعادل بین عملکرد و هزینه را حفظ میکند و امکان تغییر انعطافپذیر بین مدلهای تفکر ترکیبی را فراهم میآورد."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "نسل جدید مدل استنتاج بصری Zhipu مبتنی بر معماری MOE، با مجموع 106B پارامتر و 12B پارامتر فعال، در انواع بنچمارکها به SOTA در میان مدلهای چندمودال متنباز همرده در سطح جهانی دست یافته است و وظایف متداولی مانند درک تصویر، ویدئو، اسناد و تعامل با رابطهای گرافیکی (GUI) را پوشش میدهد."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "جدیدترین مدل پرچمدار Zhipu، GLM-4.6 (۳۵۵ میلیارد پارامتر)، در کدگذاری پیشرفته، پردازش متون بلند، استنتاج و تواناییهای عامل هوشمند به طور کامل از نسل قبلی پیشی گرفته است، به ویژه در توانایی برنامهنویسی که با Claude Sonnet 4 همتراز است و به یکی از برترین مدلهای کدینگ داخلی تبدیل شده است."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V قابلیتهای قدرتمندی در درک و استدلال تصویری ارائه میدهد و از وظایف مختلف بصری پشتیبانی میکند."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1 : modèle de raisonnement de nouvelle génération, améliorant les capacités de raisonnement complexe et de réflexion en chaîne, adapté aux tâches nécessitant une analyse approfondie."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp introduit un mécanisme d'attention parcimonieuse, visant à améliorer l'efficacité de l'entraînement et de l'inférence lors du traitement de longs textes, à un prix inférieur à celui de deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 est un modèle hybride d'experts avec 685B de paramètres, représentant la dernière itération de la série de modèles de chat phare de l'équipe DeepSeek.\n\nIl hérite du modèle [DeepSeek V3](/deepseek/deepseek-chat-v3) et excelle dans diverses tâches."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "La série GLM-4.1V-Thinking est actuellement le modèle visuel le plus performant connu dans la catégorie des VLM de 10 milliards de paramètres. Elle intègre les meilleures performances SOTA dans diverses tâches de langage visuel, incluant la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes disciplinaires, la reconnaissance OCR, l'interprétation de documents et graphiques, les agents GUI, le codage web frontal, le grounding, etc. Ses capacités surpassent même celles du Qwen2.5-VL-72B, qui possède plus de huit fois plus de paramètres. Grâce à des techniques avancées d'apprentissage par renforcement, le modèle maîtrise le raisonnement par chaîne de pensée, améliorant la précision et la richesse des réponses, surpassant nettement les modèles traditionnels sans mécanisme de pensée en termes de résultats finaux et d'explicabilité."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "Modèle phare de Zhipu, supportant le changement de mode de réflexion, avec des capacités globales atteignant le niveau SOTA des modèles open source, et une longueur de contexte pouvant atteindre 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Version allégée de GLM-4.5, équilibrant performance et rapport qualité-prix, avec une commutation flexible entre modèles de réflexion hybrides."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "La nouvelle génération de modèle d'inférence visuelle de Zhipu, basée sur l'architecture MOE (Mixture-of-Experts), avec un total de 106 milliards de paramètres et 12 milliards de paramètres d'activation, atteint l'état de l'art (SOTA) parmi les modèles multimodaux open source de même niveau au niveau mondial sur divers benchmarks, couvrant les tâches courantes telles que la compréhension d'images, de vidéos, de documents et d'interfaces graphiques (GUI)."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Le dernier modèle phare de Zhipu, GLM-4.6 (355B), surpasse entièrement la génération précédente en codage avancé, traitement de longs textes, inférence et capacités d'agent intelligent, notamment en alignant ses compétences en programmation avec Claude Sonnet 4, devenant ainsi le modèle de codage de pointe en Chine."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V offre de puissantes capacités de compréhension et de raisonnement d'image, prenant en charge diverses tâches visuelles."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione che migliora le capacità di ragionamento complesso e di pensiero a catena, adatto a compiti che richiedono analisi approfondite."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp introduce un meccanismo di attenzione sparsa, progettato per migliorare l'efficienza di addestramento e inferenza nel trattamento di testi lunghi, con un costo inferiore rispetto a deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 è un modello misto esperto con 685B di parametri, l'ultima iterazione della serie di modelli di chat di punta del team DeepSeek.\n\nEredita il modello [DeepSeek V3](/deepseek/deepseek-chat-v3) e si comporta eccezionalmente in vari compiti."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "La serie GLM-4.1V-Thinking è attualmente il modello visivo più performante tra i modelli VLM di livello 10 miliardi di parametri noti, integrando le migliori prestazioni SOTA nelle attività di linguaggio visivo di pari livello, tra cui comprensione video, domande sulle immagini, risoluzione di problemi disciplinari, riconoscimento OCR, interpretazione di documenti e grafici, agent GUI, coding front-end web, grounding e altro. Le capacità in molteplici compiti superano persino il modello Qwen2.5-VL-72B con 8 volte più parametri. Grazie a tecniche avanzate di apprendimento rinforzato, il modello padroneggia il ragionamento tramite catena di pensiero per migliorare accuratezza e ricchezza delle risposte, superando significativamente i modelli tradizionali non-thinking in termini di risultati finali e interpretabilità."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "Modello di punta di Zhipu, supporta la modalità di pensiero alternata, con capacità complessive che raggiungono il livello SOTA dei modelli open source, e una lunghezza del contesto fino a 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Versione leggera di GLM-4.5, bilancia prestazioni e rapporto qualità-prezzo, con capacità di commutazione flessibile tra modelli di pensiero ibridi."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Una nuova generazione di modello di ragionamento visivo basato sull'architettura MOE, con 106 miliardi di parametri totali e 12 miliardi di parametri di attivazione, che raggiunge lo SOTA tra i modelli multimodali open source della stessa fascia a livello globale in vari benchmark, coprendo attività comuni come la comprensione di immagini, video, documenti e compiti GUI."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Il più recente modello di punta di Zhipu, GLM-4.6 (355B), supera completamente la generazione precedente in codifica avanzata, gestione di testi lunghi, inferenza e capacità agenti, allineandosi in particolare con Claude Sonnet 4 nelle capacità di programmazione, diventando il modello di coding di punta in Cina."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V offre potenti capacità di comprensione e ragionamento visivo, supportando vari compiti visivi."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1:次世代推論モデルで、複雑な推論と連鎖的思考能力を向上させ、深い分析を必要とするタスクに適しています。"
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp はスパースアテンション機構を導入し、長文処理時のトレーニングと推論の効率を向上させることを目的としており、価格は deepseek-v3.1 よりも低く設定されています。"
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3は、685Bパラメータの専門的な混合モデルであり、DeepSeekチームのフラッグシップチャットモデルシリーズの最新のイテレーションです。\n\nこれは、[DeepSeek V3](/deepseek/deepseek-chat-v3)モデルを継承し、さまざまなタスクで優れたパフォーマンスを発揮します。"
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "GLM-4.1V-Thinking シリーズモデルは、現時点で知られている10BクラスのVLMモデルの中で最も性能の高い視覚モデルであり、同クラスのSOTAの各種視覚言語タスクを統合しています。これには動画理解、画像質問応答、学科問題解決、OCR文字認識、文書およびグラフ解析、GUIエージェント、フロントエンドウェブコーディング、グラウンディングなどが含まれ、多くのタスク能力は8倍のパラメータを持つQwen2.5-VL-72Bをも上回ります。先進的な強化学習技術により、思考の連鎖推論を通じて回答の正確性と豊かさを向上させ、最終的な成果と説明可能性の両面で従来の非thinkingモデルを大きく凌駕しています。"
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "智譜のフラッグシップモデルで、思考モードの切り替えに対応し、総合能力はオープンソースモデルのSOTAレベルに達しており、コンテキスト長は最大128Kに対応しています。"
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "GLM-4.5の軽量版で、性能とコストパフォーマンスのバランスを取り、混合思考モデルの柔軟な切り替えが可能です。"
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "智谱の次世代MOEアーキテクチャに基づく視覚推論モデルで、総パラメータ数106Bおよびアクティベーションパラメータ12Bを有し、各種ベンチマークにおいて同等クラスのオープンソース多モーダルモデルで世界的なSOTA(最先端)を達成しています。画像、動画、ドキュメント理解、GUIタスクなどの一般的なタスクを網羅します。"
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "智譜の最新フラッグシップモデル GLM-4.6 (355B) は、高度なエンコーディング、長文処理、推論およびエージェント能力において前世代を全面的に凌駕し、特にプログラミング能力は Claude Sonnet 4 と整合しており、国内トップクラスのコーディングモデルとなっています。"
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4Vは強力な画像理解と推論能力を提供し、さまざまな視覚タスクをサポートします。"
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: 차세대 추론 모델로, 복잡한 추론 및 연쇄 사고 능력을 향상시켜 심층 분석이 필요한 작업에 적합합니다."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp는 희소 주의 메커니즘을 도입하여 긴 텍스트 처리 시 훈련 및 추론 효율을 향상시키며, 가격은 deepseek-v3.1보다 저렴합니다."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3는 685B 매개변수를 가진 전문가 혼합 모델로, DeepSeek 팀의 플래그십 채팅 모델 시리즈의 최신 반복입니다.\n\n이 모델은 [DeepSeek V3](/deepseek/deepseek-chat-v3) 모델을 계승하며 다양한 작업에서 뛰어난 성능을 보입니다."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "GLM-4.1V-Thinking 시리즈 모델은 현재 알려진 10B급 VLM 모델 중 가장 성능이 뛰어난 비주얼 모델로, 동급 SOTA의 다양한 비주얼 언어 작업을 통합합니다. 여기에는 비디오 이해, 이미지 질문응답, 학과 문제 해결, OCR 문자 인식, 문서 및 차트 해석, GUI 에이전트, 프론트엔드 웹 코딩, 그라운딩 등이 포함되며, 여러 작업 능력은 8배 이상의 파라미터를 가진 Qwen2.5-VL-72B를 능가합니다. 선도적인 강화 학습 기술을 통해 사고 사슬 추론 방식을 습득하여 답변의 정확성과 풍부함을 향상시키며, 최종 결과와 해석 가능성 측면에서 전통적인 비사고 모델을 현저히 능가합니다."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "지푸의 플래그십 모델로, 사고 모드 전환을 지원하며, 종합 능력이 오픈소스 모델의 SOTA 수준에 도달하고, 컨텍스트 길이는 최대 128K에 달합니다."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "GLM-4.5의 경량 버전으로, 성능과 비용 효율성을 균형 있게 갖추었으며 혼합 사고 모델을 유연하게 전환할 수 있습니다."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "智谱(Zhipu)의 차세대 MOE 아키텍처 기반 시각 추론 모델로, 총 파라미터 수 106B 및 활성화 파라미터 12B를 갖추어 각종 벤치마크에서 동급의 전 세계 오픈소스 멀티모달 모델들 가운데 SOTA를 달성하며, 이미지·비디오·문서 이해 및 GUI 작업 등 다양한 일반 과제를 포괄합니다."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "지푸 최신 플래그십 모델 GLM-4.6 (355B)은 고급 인코딩, 긴 텍스트 처리, 추론 및 에이전트 능력에서 전 세대를 전면적으로 능가하며, 특히 프로그래밍 능력은 Claude Sonnet 4와 일치하여 국내 최고 수준의 코딩 모델이 되었습니다."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V는 강력한 이미지 이해 및 추론 능력을 제공하며, 다양한 시각적 작업을 지원합니다."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: een volgende generatie redeneermodel dat verbeterde complexe redeneer- en ketendenkvaardigheden biedt, geschikt voor taken die diepgaande analyse vereisen."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp introduceert een sparse attentie mechanisme, gericht op het verbeteren van de trainings- en inferentie-efficiëntie bij het verwerken van lange teksten, met een prijs lager dan deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 is een expert gemengd model met 685B parameters, de nieuwste iteratie van de vlaggenschip chatmodelreeks van het DeepSeek-team.\n\nHet is een opvolger van het [DeepSeek V3](/deepseek/deepseek-chat-v3) model en presteert uitstekend in verschillende taken."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "De GLM-4.1V-Thinking serie modellen zijn momenteel de krachtigste visuele modellen binnen de bekende 10 miljard parameter VLM's. Ze integreren state-of-the-art visuele-taaltaakprestaties op hetzelfde niveau, waaronder videoverwerking, beeldvraag-antwoordsystemen, vakinhoudelijke probleemoplossing, OCR-tekstherkenning, document- en grafiekanalyse, GUI-agenten, frontend webcodering en grounding. De capaciteiten van meerdere taken overtreffen zelfs die van Qwen2.5-VL-72B met acht keer zoveel parameters. Door geavanceerde versterkend leren technologie beheerst het model chain-of-thought redenering om de nauwkeurigheid en rijkdom van antwoorden te verbeteren, wat resulteert in aanzienlijk betere eindresultaten en interpretatie dan traditionele niet-thinking modellen."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "Het
|
|
1449
|
+
"description": "Het vlaggenschipmodel van Zhipu, ondersteunt het schakelen tussen denkwijzen, met een algehele capaciteit die het SOTA-niveau van open source modellen bereikt, en een contextlengte tot 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Een lichtgewicht versie van GLM-4.5, die zowel prestaties als kosteneffectiviteit combineert en flexibel kan schakelen tussen hybride denkmodellen."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Zhipu's nieuwe generatie visueel redeneermodel, gebaseerd op een MOE-architectuur, beschikt over in totaal 106 miljard parameters en 12 miljard activatieparameters, en behaalt op diverse benchmarks state-of-the-art (SOTA)-prestaties onder open-source multimodale modellen van vergelijkbaar internationaal niveau. Het dekt veelvoorkomende taken zoals beeld-, video- en documentbegrip en GUI-taken."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Het nieuwste vlaggenschipmodel van Zhipu, GLM-4.6 (355B), overtreft de vorige generatie op het gebied van geavanceerde codering, lange tekstverwerking, inferentie en agentcapaciteiten, en is vooral op programmeervaardigheden afgestemd op Claude Sonnet 4, waarmee het het toonaangevende coderingsmodel in China is."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V biedt krachtige beeldbegrip- en redeneercapaciteiten, ondersteunt verschillende visuele taken."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: kolejna generacja modelu inferencyjnego, poprawiająca zdolności do złożonego wnioskowania i łańcuchowego myślenia, odpowiednia do zadań wymagających dogłębnej analizy."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp wprowadza mechanizm rzadkiej uwagi, mający na celu poprawę efektywności treningu i wnioskowania podczas przetwarzania długich tekstów, przy cenie niższej niż deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 to model mieszany z 685B parametrami, będący najnowszą iteracją flagowej serii modeli czatu zespołu DeepSeek.\n\nDziedziczy po modelu [DeepSeek V3](/deepseek/deepseek-chat-v3) i wykazuje doskonałe wyniki w różnych zadaniach."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "Seria modeli GLM-4.1V-Thinking to najsilniejsze znane modele wizualno-językowe (VLM) na poziomie 10 miliardów parametrów, integrujące najnowocześniejsze zadania wizualno-językowe na tym poziomie, w tym rozumienie wideo, pytania i odpowiedzi na obrazach, rozwiązywanie problemów naukowych, rozpoznawanie tekstu OCR, interpretację dokumentów i wykresów, agenta GUI, kodowanie front-endowe stron internetowych, grounding i inne. Wiele z tych zadań przewyższa możliwości modelu Qwen2.5-VL-72B, który ma ponad 8 razy więcej parametrów. Dzięki zaawansowanym technikom uczenia ze wzmocnieniem model opanował rozumowanie łańcuchowe, co znacząco poprawia dokładność i bogactwo odpowiedzi, przewyższając tradycyjne modele bez mechanizmu thinking pod względem końcowych rezultatów i interpretowalności."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "Flagowy model Zhipu, wspierający tryb myślenia, osiągający poziom SOTA wśród modeli open source pod względem zdolności ogólnych, z długością kontekstu do 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Lżejsza wersja GLM-4.5, łącząca wydajność i opłacalność, z możliwością elastycznego przełączania hybrydowego trybu myślenia."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Nowa generacja modelu do wnioskowania wizualnego firmy Zhipu oparta na architekturze MOE. Przy łącznej liczbie parametrów 106B i 12B parametrów aktywacji osiąga wyniki SOTA wśród otwartoźródłowych modeli multimodalnych o porównywalnej skali na różnych benchmarkach, obejmując typowe zadania związane z analizą obrazów, wideo, rozumieniem dokumentów oraz zadaniami GUI."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Najnowszy flagowy model Zhipu GLM-4.6 (355B) przewyższa poprzednie generacje pod względem zaawansowanego kodowania, przetwarzania długich tekstów, wnioskowania i zdolności agentów, szczególnie wyrównując się z Claude Sonnet 4 w zakresie programowania, stając się czołowym modelem kodowania w kraju."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V oferuje potężne zdolności rozumienia i wnioskowania obrazów, obsługując różne zadania wizualne."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: modelo de inferência de próxima geração, aprimorado para raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise profunda."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp introduz um mecanismo de atenção esparsa, visando melhorar a eficiência de treinamento e inferência no processamento de textos longos, com preço inferior ao do deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "O DeepSeek V3 é um modelo misto especializado com 685B de parâmetros, sendo a mais recente iteração da série de modelos de chat da equipe DeepSeek.\n\nEle herda o modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) e se destaca em várias tarefas."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "A série GLM-4.1V-Thinking é atualmente o modelo visual mais potente conhecido na categoria de VLMs de 10 bilhões de parâmetros, integrando tarefas de linguagem visual de ponta no mesmo nível, incluindo compreensão de vídeo, perguntas e respostas sobre imagens, resolução de problemas acadêmicos, reconhecimento óptico de caracteres (OCR), interpretação de documentos e gráficos, agentes GUI, codificação front-end para web, grounding, entre outros. Suas capacidades em várias tarefas superam até modelos com 8 vezes mais parâmetros, como o Qwen2.5-VL-72B. Por meio de técnicas avançadas de aprendizado por reforço, o modelo domina o raciocínio em cadeia para melhorar a precisão e riqueza das respostas, superando significativamente modelos tradicionais sem o mecanismo thinking em termos de resultados finais e interpretabilidade."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "Modelo
|
|
1449
|
+
"description": "Modelo principal da Zhipu, suporta alternância de modos de raciocínio, com capacidade abrangente alcançando o nível SOTA dos modelos open source, e comprimento de contexto de até 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Versão leve do GLM-4.5, equilibrando desempenho e custo-benefício, com capacidade flexível de alternar entre modos híbridos de pensamento."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "A nova geração do modelo de raciocínio visual da Zhipu, baseada na arquitetura MOE, com 106B de parâmetros totais e 12B de parâmetros de ativação, alcança o estado da arte (SOTA) entre modelos multimodais de código aberto de nível semelhante em diversos benchmarks, abrangendo tarefas comuns como compreensão de imagens, vídeos, documentos e de interfaces gráficas (GUI)."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "O mais recente modelo principal da Zhipu, GLM-4.6 (355B), supera amplamente a geração anterior em codificação avançada, processamento de textos longos, inferência e capacidades de agentes inteligentes, especialmente alinhado com Claude Sonnet 4 em habilidades de programação, tornando-se o modelo de codificação de ponta nacional."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "O GLM-4V oferece uma forte capacidade de compreensão e raciocínio de imagens, suportando várias tarefas visuais."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: модель следующего поколения для вывода, улучшенная для сложных рассуждений и цепочек мышления, подходит для задач, требующих глубокого анализа."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp внедряет механизм разреженного внимания, направленный на повышение эффективности обучения и вывода при обработке длинных текстов, при этом стоимость ниже, чем у deepseek-v3.1."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "Серия моделей GLM-4.1V-Thinking является самой производительной визуальной моделью уровня 10B VLM на сегодняшний день, объединяя передовые SOTA возможности в задачах визуально-языкового понимания, включая понимание видео, вопросы по изображениям, решение предметных задач, распознавание текста OCR, интерпретацию документов и графиков, GUI-агентов, фронтенд веб-кодинг, Grounding и другие. Во многих задачах её возможности превосходят Qwen2.5-VL-72B с параметрами в 8 раз больше. Благодаря передовым методам обучения с подкреплением модель овладела рассуждениями через цепочку мышления, что значительно повышает точность и полноту ответов, превосходя традиционные модели без thinking с точки зрения конечных результатов и интерпретируемости."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "
|
|
1449
|
+
"description": "Флагманская модель Zhipu, поддерживающая переключение режимов мышления, с комплексными возможностями, достигающими уровня SOTA среди открытых моделей, длина контекста до 128K."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "Лёгкая версия GLM-4.5, сочетающая производительность и экономичность, с возможностью гибкого переключения между смешанными режимами размышления."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Zhipu нового поколения — модель визуального вывода на основе архитектуры MOE. При общем объёме параметров 106B и 12B активируемых параметров она достигает SOTA среди открытых мультимодальных моделей сопоставимого уровня в различных бенчмарках, охватывая такие распространённые задачи, как понимание изображений, видео, документов и задачи графического интерфейса (GUI)."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Новейшая флагманская модель Zhipu GLM-4.6 (355B) превосходит предшественников во всех аспектах: продвинутом кодировании, обработке длинных текстов, выводе и возможностях интеллектуальных агентов, особенно в программировании, сравнимая с Claude Sonnet 4, ставшая ведущей моделью кодирования в стране."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V предлагает мощные способности понимания и вывода изображений, поддерживает множество визуальных задач."
|
|
1465
1471
|
},
|
|
@@ -1019,6 +1019,9 @@
|
|
|
1019
1019
|
"deepseek-v3.1:671b": {
|
|
1020
1020
|
"description": "DeepSeek V3.1: Karmaşık çıkarım ve bağlantılı düşünme yeteneklerini geliştiren yeni nesil çıkarım modeli, derinlemesine analiz gerektiren görevler için uygundur."
|
|
1021
1021
|
},
|
|
1022
|
+
"deepseek-v3.2-exp": {
|
|
1023
|
+
"description": "deepseek-v3.2-exp seyrek dikkat mekanizması getirir, uzun metinlerin işlenmesinde eğitim ve çıkarım verimliliğini artırmayı amaçlar, fiyatı deepseek-v3.1'den daha düşüktür."
|
|
1024
|
+
},
|
|
1022
1025
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1023
1026
|
"description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
|
|
1024
1027
|
},
|
|
@@ -1443,7 +1446,7 @@
|
|
|
1443
1446
|
"description": "GLM-4.1V-Thinking serisi modeller, bilinen 10 milyar parametre seviyesindeki VLM modelleri arasında en güçlü görsel modellerdir. Aynı seviyedeki SOTA görsel dil görevlerini birleştirir; video anlama, görsel soru-cevap, akademik problem çözme, OCR metin tanıma, belge ve grafik yorumlama, GUI ajanı, ön uç web kodlama, grounding gibi birçok görevde 8 kat daha büyük parametreli Qwen2.5-VL-72B modelini bile aşan performans gösterir. Önde gelen pekiştirmeli öğrenme teknikleri sayesinde, düşünce zinciri akıl yürütme yoluyla cevapların doğruluğu ve zenginliği artırılmıştır; nihai sonuçlar ve açıklanabilirlik açısından geleneksel düşünce zinciri olmayan modellerin çok ötesindedir."
|
|
1444
1447
|
},
|
|
1445
1448
|
"glm-4.5": {
|
|
1446
|
-
"description": "Zhipu'nun
|
|
1449
|
+
"description": "Zhipu'nun amiral gemisi modeli, düşünme modu geçişini destekler, kapsamlı yetenekleri açık kaynak modellerin SOTA seviyesine ulaşır, bağlam uzunluğu 128K'ya kadar çıkabilir."
|
|
1447
1450
|
},
|
|
1448
1451
|
"glm-4.5-air": {
|
|
1449
1452
|
"description": "GLM-4.5'in hafif versiyonu olup performans ve maliyet etkinliğini dengeler; hibrit düşünme modeli olarak esnek geçiş sağlar."
|
|
@@ -1460,6 +1463,9 @@
|
|
|
1460
1463
|
"glm-4.5v": {
|
|
1461
1464
|
"description": "Zhipu'nun MOE mimarisine dayanan yeni nesil görsel akıl yürütme modeli; 106B toplam parametreye ve 12B aktif parametreye sahip olup çeşitli kıyaslama testlerinde aynı seviyedeki açık kaynaklı çok modlu modeller arasında dünya çapında SOTA'ya ulaşır; görüntü, video, belge anlama ve GUI görevleri gibi yaygın görevleri kapsar."
|
|
1462
1465
|
},
|
|
1466
|
+
"glm-4.6": {
|
|
1467
|
+
"description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6 (355B), gelişmiş kodlama, uzun metin işleme, çıkarım ve ajan yeteneklerinde önceki nesli tamamen aşar, özellikle programlama yeteneklerinde Claude Sonnet 4 ile hizalanarak ülkenin en iyi Kodlama modeli olur."
|
|
1468
|
+
},
|
|
1463
1469
|
"glm-4v": {
|
|
1464
1470
|
"description": "GLM-4V, güçlü görüntü anlama ve akıl yürütme yetenekleri sunar, çeşitli görsel görevleri destekler."
|
|
1465
1471
|
},
|