@lobehub/lobehub 2.0.0-next.212 → 2.0.0-next.213

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (74) hide show
  1. package/.github/workflows/auto-i18n.yml +1 -1
  2. package/.github/workflows/bundle-analyzer.yml +1 -1
  3. package/.github/workflows/claude-auto-testing.yml +1 -1
  4. package/.github/workflows/claude-dedupe-issues.yml +1 -1
  5. package/.github/workflows/claude-issue-triage.yml +1 -1
  6. package/.github/workflows/claude-translate-comments.yml +1 -1
  7. package/.github/workflows/claude-translator.yml +1 -1
  8. package/.github/workflows/claude.yml +1 -1
  9. package/.github/workflows/desktop-build-electron.yml +2 -2
  10. package/.github/workflows/e2e.yml +1 -1
  11. package/.github/workflows/issue-auto-close-duplicates.yml +1 -1
  12. package/.github/workflows/lighthouse.yml +2 -2
  13. package/.github/workflows/lock-closed-issues.yml +1 -1
  14. package/.github/workflows/manual-build-desktop.yml +6 -6
  15. package/.github/workflows/pr-build-desktop.yml +5 -5
  16. package/.github/workflows/pr-build-docker.yml +2 -2
  17. package/.github/workflows/release-desktop-beta.yml +4 -4
  18. package/.github/workflows/release-docker.yml +2 -2
  19. package/.github/workflows/release.yml +1 -1
  20. package/.github/workflows/sync-database-schema.yml +1 -1
  21. package/.github/workflows/sync.yml +1 -1
  22. package/.github/workflows/test.yml +5 -5
  23. package/.github/workflows/verify-desktop-patch.yml +1 -1
  24. package/CHANGELOG.md +33 -0
  25. package/changelog/v1.json +9 -0
  26. package/locales/ar/models.json +35 -4
  27. package/locales/ar/providers.json +1 -0
  28. package/locales/bg-BG/models.json +24 -1
  29. package/locales/bg-BG/providers.json +1 -0
  30. package/locales/de-DE/models.json +30 -1
  31. package/locales/de-DE/providers.json +1 -0
  32. package/locales/en-US/models.json +1 -0
  33. package/locales/en-US/providers.json +1 -0
  34. package/locales/es-ES/models.json +32 -1
  35. package/locales/es-ES/providers.json +1 -0
  36. package/locales/fa-IR/models.json +48 -1
  37. package/locales/fa-IR/providers.json +1 -0
  38. package/locales/fr-FR/models.json +47 -1
  39. package/locales/fr-FR/providers.json +1 -0
  40. package/locales/it-IT/models.json +32 -1
  41. package/locales/it-IT/providers.json +1 -0
  42. package/locales/ja-JP/models.json +2 -1
  43. package/locales/ja-JP/providers.json +1 -0
  44. package/locales/ko-KR/models.json +24 -1
  45. package/locales/ko-KR/providers.json +1 -0
  46. package/locales/nl-NL/models.json +46 -1
  47. package/locales/nl-NL/providers.json +1 -0
  48. package/locales/pl-PL/models.json +41 -1
  49. package/locales/pl-PL/providers.json +1 -0
  50. package/locales/pt-BR/models.json +32 -1
  51. package/locales/pt-BR/providers.json +1 -0
  52. package/locales/ru-RU/models.json +54 -2
  53. package/locales/ru-RU/providers.json +1 -0
  54. package/locales/tr-TR/models.json +32 -1
  55. package/locales/tr-TR/providers.json +1 -0
  56. package/locales/vi-VN/models.json +37 -1
  57. package/locales/vi-VN/providers.json +1 -0
  58. package/locales/zh-CN/models.json +24 -3
  59. package/locales/zh-CN/providers.json +1 -0
  60. package/locales/zh-TW/models.json +11 -1
  61. package/locales/zh-TW/providers.json +1 -0
  62. package/package.json +1 -1
  63. package/packages/context-engine/src/engine/messages/types.ts +1 -1
  64. package/packages/model-runtime/src/core/BaseAI.ts +1 -1
  65. package/packages/model-runtime/src/core/streams/qwen.test.ts +140 -0
  66. package/packages/model-runtime/src/core/streams/qwen.ts +17 -5
  67. package/packages/model-runtime/src/types/chat.ts +12 -12
  68. package/packages/model-runtime/src/types/error.ts +1 -1
  69. package/packages/model-runtime/src/types/image.ts +1 -1
  70. package/src/app/[variants]/(main)/chat/features/Conversation/Header/index.tsx +2 -1
  71. package/src/server/services/comfyui/config/constants.ts +7 -7
  72. package/src/server/services/comfyui/config/promptToolConst.ts +26 -26
  73. package/src/server/services/comfyui/utils/promptSplitter.ts +23 -23
  74. package/src/server/services/comfyui/utils/weightDType.ts +4 -5
@@ -21,7 +21,7 @@ jobs:
21
21
  git config --global user.name "lobehubbot"
22
22
  git config --global user.email "i@lobehub.com"
23
23
 
24
- - uses: actions/checkout@v5
24
+ - uses: actions/checkout@v6
25
25
  with:
26
26
  ref: ${{ github.event.pull_request.head.ref }}
27
27
 
@@ -18,7 +18,7 @@ jobs:
18
18
 
19
19
  steps:
20
20
  - name: Checkout repository
21
- uses: actions/checkout@v5
21
+ uses: actions/checkout@v6
22
22
 
23
23
  - name: Setup Node.js
24
24
  uses: actions/setup-node@v6
@@ -27,7 +27,7 @@ jobs:
27
27
 
28
28
  steps:
29
29
  - name: Checkout repository
30
- uses: actions/checkout@v5
30
+ uses: actions/checkout@v6
31
31
  with:
32
32
  fetch-depth: 1
33
33
 
@@ -20,7 +20,7 @@ jobs:
20
20
 
21
21
  steps:
22
22
  - name: Checkout repository
23
- uses: actions/checkout@v5
23
+ uses: actions/checkout@v6
24
24
  with:
25
25
  fetch-depth: 1
26
26
 
@@ -16,7 +16,7 @@ jobs:
16
16
 
17
17
  steps:
18
18
  - name: Checkout repository
19
- uses: actions/checkout@v5
19
+ uses: actions/checkout@v6
20
20
 
21
21
  - name: Copy triage prompts
22
22
  run: |
@@ -27,7 +27,7 @@ jobs:
27
27
 
28
28
  steps:
29
29
  - name: Checkout repository
30
- uses: actions/checkout@v5
30
+ uses: actions/checkout@v6
31
31
  with:
32
32
  fetch-depth: 1
33
33
 
@@ -31,7 +31,7 @@ jobs:
31
31
 
32
32
  steps:
33
33
  - name: Checkout repository
34
- uses: actions/checkout@v5
34
+ uses: actions/checkout@v6
35
35
  with:
36
36
  fetch-depth: 1
37
37
 
@@ -26,7 +26,7 @@ jobs:
26
26
  actions: read # Required for Claude to read CI results on PRs
27
27
  steps:
28
28
  - name: Checkout repository
29
- uses: actions/checkout@v5
29
+ uses: actions/checkout@v6
30
30
  with:
31
31
  fetch-depth: 1
32
32
 
@@ -38,7 +38,7 @@ jobs:
38
38
  NEXT_PUBLIC_DESKTOP_UMAMI_BASE_URL: ${{ secrets.UMAMI_NIGHTLY_DESKTOP_BASE_URL || 'https://analytics.example.com' }}
39
39
  steps:
40
40
  - name: Checkout repository
41
- uses: actions/checkout@v5
41
+ uses: actions/checkout@v6
42
42
  with:
43
43
  fetch-depth: 0
44
44
 
@@ -60,7 +60,7 @@ jobs:
60
60
  run: echo "STORE_PATH=$(pnpm store path --silent)" >> $GITHUB_OUTPUT
61
61
 
62
62
  - name: Cache pnpm store
63
- uses: actions/cache@v4
63
+ uses: actions/cache@v5
64
64
  with:
65
65
  path: ${{ steps.pnpm-store.outputs.STORE_PATH }}
66
66
  key: ${{ runner.os }}-pnpm-store-${{ env.NODE_VERSION }}-${{ hashFiles('pnpm-lock.yaml') }}
@@ -41,7 +41,7 @@ jobs:
41
41
  timeout-minutes: 30
42
42
  steps:
43
43
  - name: Checkout
44
- uses: actions/checkout@v5
44
+ uses: actions/checkout@v6
45
45
 
46
46
  - name: Setup Bun
47
47
  uses: oven-sh/setup-bun@v2
@@ -15,7 +15,7 @@ jobs:
15
15
 
16
16
  steps:
17
17
  - name: Checkout repository
18
- uses: actions/checkout@v5
18
+ uses: actions/checkout@v6
19
19
 
20
20
  - name: Setup Bun
21
21
  uses: oven-sh/setup-bun@v2
@@ -42,12 +42,12 @@ jobs:
42
42
  echo "BRANCH=$BRANCH" >> $GITHUB_ENV
43
43
  env:
44
44
  REPO_BRANCH: ${{ matrix.REPO_BRANCH || env.REPO_BRANCH }}
45
- - uses: actions/checkout@v5
45
+ - uses: actions/checkout@v6
46
46
  with:
47
47
  repository: ${{ env.REPOSITORY }}
48
48
  token: ${{ secrets[matrix.TOKEN_NAME] || secrets[env.TOKEN_NAME] }}
49
49
  ref: ${{ env.BRANCH }}
50
- - uses: actions/checkout@v5
50
+ - uses: actions/checkout@v6
51
51
  with:
52
52
  repository: 'myactionway/lighthouse-badges'
53
53
  path: temp_lighthouse_badges_nested
@@ -16,7 +16,7 @@ jobs:
16
16
  runs-on: ubuntu-latest
17
17
  steps:
18
18
  - name: Checkout repository
19
- uses: actions/checkout@v5
19
+ uses: actions/checkout@v6
20
20
 
21
21
  - name: Lock closed issues after 7 days of inactivity
22
22
  uses: actions/github-script@v8
@@ -49,7 +49,7 @@ jobs:
49
49
  runs-on: ubuntu-latest
50
50
  steps:
51
51
  - name: Checkout base
52
- uses: actions/checkout@v5
52
+ uses: actions/checkout@v6
53
53
  with:
54
54
  fetch-depth: 0
55
55
 
@@ -72,7 +72,7 @@ jobs:
72
72
  outputs:
73
73
  version: ${{ steps.set_version.outputs.version }}
74
74
  steps:
75
- - uses: actions/checkout@v5
75
+ - uses: actions/checkout@v6
76
76
  with:
77
77
  fetch-depth: 0
78
78
 
@@ -114,7 +114,7 @@ jobs:
114
114
  matrix:
115
115
  os: [macos-latest, macos-15-intel]
116
116
  steps:
117
- - uses: actions/checkout@v5
117
+ - uses: actions/checkout@v6
118
118
  with:
119
119
  fetch-depth: 0
120
120
 
@@ -192,7 +192,7 @@ jobs:
192
192
  if: inputs.build_windows
193
193
  runs-on: windows-2025
194
194
  steps:
195
- - uses: actions/checkout@v5
195
+ - uses: actions/checkout@v6
196
196
  with:
197
197
  fetch-depth: 0
198
198
 
@@ -245,7 +245,7 @@ jobs:
245
245
  if: inputs.build_linux
246
246
  runs-on: ubuntu-latest
247
247
  steps:
248
- - uses: actions/checkout@v5
248
+ - uses: actions/checkout@v6
249
249
  with:
250
250
  fetch-depth: 0
251
251
 
@@ -299,7 +299,7 @@ jobs:
299
299
  if: inputs.build_macos
300
300
  steps:
301
301
  - name: Checkout repository
302
- uses: actions/checkout@v5
302
+ uses: actions/checkout@v6
303
303
 
304
304
  - name: Setup Node & Bun
305
305
  uses: ./.github/actions/setup-node-bun
@@ -25,7 +25,7 @@ jobs:
25
25
  runs-on: ubuntu-latest # 只在 ubuntu 上运行一次检查
26
26
  steps:
27
27
  - name: Checkout base
28
- uses: actions/checkout@v5
28
+ uses: actions/checkout@v6
29
29
  with:
30
30
  fetch-depth: 0
31
31
 
@@ -55,7 +55,7 @@ jobs:
55
55
  # 输出版本信息,供后续 job 使用
56
56
  version: ${{ steps.set_version.outputs.version }}
57
57
  steps:
58
- - uses: actions/checkout@v5
58
+ - uses: actions/checkout@v6
59
59
  with:
60
60
  fetch-depth: 0
61
61
 
@@ -95,7 +95,7 @@ jobs:
95
95
  matrix:
96
96
  os: [macos-latest, macos-15-intel, windows-2025, ubuntu-latest]
97
97
  steps:
98
- - uses: actions/checkout@v5
98
+ - uses: actions/checkout@v6
99
99
  with:
100
100
  fetch-depth: 0
101
101
 
@@ -218,7 +218,7 @@ jobs:
218
218
  contents: write
219
219
  steps:
220
220
  - name: Checkout repository
221
- uses: actions/checkout@v5
221
+ uses: actions/checkout@v6
222
222
 
223
223
  - name: Setup Node & Bun
224
224
  uses: ./.github/actions/setup-node-bun
@@ -274,7 +274,7 @@ jobs:
274
274
  outputs:
275
275
  artifact_path: ${{ steps.set_path.outputs.path }}
276
276
  steps:
277
- - uses: actions/checkout@v5
277
+ - uses: actions/checkout@v6
278
278
  with:
279
279
  fetch-depth: 0
280
280
 
@@ -38,7 +38,7 @@ jobs:
38
38
  echo "PLATFORM_PAIR=${platform//\//-}" >> $GITHUB_ENV
39
39
 
40
40
  - name: Checkout PR branch
41
- uses: actions/checkout@v5
41
+ uses: actions/checkout@v6
42
42
  with:
43
43
  fetch-depth: 0
44
44
 
@@ -106,7 +106,7 @@ jobs:
106
106
  if: github.event.pull_request.head.repo.full_name == github.repository
107
107
  steps:
108
108
  - name: Checkout PR branch
109
- uses: actions/checkout@v5
109
+ uses: actions/checkout@v6
110
110
  with:
111
111
  fetch-depth: 0
112
112
 
@@ -19,7 +19,7 @@ jobs:
19
19
  runs-on: ubuntu-latest # 只在 ubuntu 上运行一次检查
20
20
  steps:
21
21
  - name: Checkout base
22
- uses: actions/checkout@v5
22
+ uses: actions/checkout@v6
23
23
  with:
24
24
  fetch-depth: 0
25
25
 
@@ -48,7 +48,7 @@ jobs:
48
48
  version: ${{ steps.set_version.outputs.version }}
49
49
  is_pr_build: ${{ steps.set_version.outputs.is_pr_build }}
50
50
  steps:
51
- - uses: actions/checkout@v5
51
+ - uses: actions/checkout@v6
52
52
  with:
53
53
  fetch-depth: 0
54
54
 
@@ -84,7 +84,7 @@ jobs:
84
84
  matrix:
85
85
  os: [macos-latest, macos-15-intel, windows-2025, ubuntu-latest]
86
86
  steps:
87
- - uses: actions/checkout@v5
87
+ - uses: actions/checkout@v6
88
88
  with:
89
89
  fetch-depth: 0
90
90
 
@@ -205,7 +205,7 @@ jobs:
205
205
  contents: write
206
206
  steps:
207
207
  - name: Checkout repository
208
- uses: actions/checkout@v5
208
+ uses: actions/checkout@v6
209
209
 
210
210
  - name: Setup Node.js
211
211
  uses: actions/setup-node@v6
@@ -33,7 +33,7 @@ jobs:
33
33
  echo "PLATFORM_PAIR=${platform//\//-}" >> $GITHUB_ENV
34
34
 
35
35
  - name: Checkout base
36
- uses: actions/checkout@v5
36
+ uses: actions/checkout@v6
37
37
  with:
38
38
  fetch-depth: 0
39
39
 
@@ -93,7 +93,7 @@ jobs:
93
93
  runs-on: ubuntu-latest
94
94
  steps:
95
95
  - name: Checkout base
96
- uses: actions/checkout@v5
96
+ uses: actions/checkout@v6
97
97
  with:
98
98
  fetch-depth: 0
99
99
 
@@ -28,7 +28,7 @@ jobs:
28
28
  - 5432:5432
29
29
 
30
30
  steps:
31
- - uses: actions/checkout@v5
31
+ - uses: actions/checkout@v6
32
32
  with:
33
33
  token: ${{ secrets.GH_TOKEN }}
34
34
 
@@ -13,7 +13,7 @@ jobs:
13
13
  build:
14
14
  runs-on: ubuntu-latest
15
15
  steps:
16
- - uses: actions/checkout@v5
16
+ - uses: actions/checkout@v6
17
17
 
18
18
  - name: Install bun
19
19
  uses: oven-sh/setup-bun@v2
@@ -17,7 +17,7 @@ jobs:
17
17
  if: ${{ github.event.repository.fork }}
18
18
 
19
19
  steps:
20
- - uses: actions/checkout@v5
20
+ - uses: actions/checkout@v6
21
21
 
22
22
  - name: Clean issue notice
23
23
  uses: actions-cool/issues-helper@v3
@@ -26,7 +26,7 @@ jobs:
26
26
  name: Test package ${{ matrix.package }}
27
27
 
28
28
  steps:
29
- - uses: actions/checkout@v5
29
+ - uses: actions/checkout@v6
30
30
 
31
31
  - name: Setup Node.js
32
32
  uses: actions/setup-node@v6
@@ -61,7 +61,7 @@ jobs:
61
61
  name: Test package ${{ matrix.package }}
62
62
 
63
63
  steps:
64
- - uses: actions/checkout@v5
64
+ - uses: actions/checkout@v6
65
65
 
66
66
  - name: Setup Node.js
67
67
  uses: actions/setup-node@v6
@@ -94,7 +94,7 @@ jobs:
94
94
  runs-on: ubuntu-latest
95
95
 
96
96
  steps:
97
- - uses: actions/checkout@v5
97
+ - uses: actions/checkout@v6
98
98
 
99
99
  - name: Setup Node.js
100
100
  uses: actions/setup-node@v6
@@ -126,7 +126,7 @@ jobs:
126
126
  runs-on: ubuntu-latest
127
127
 
128
128
  steps:
129
- - uses: actions/checkout@v5
129
+ - uses: actions/checkout@v6
130
130
 
131
131
  - name: Setup Node.js
132
132
  uses: actions/setup-node@v6
@@ -178,7 +178,7 @@ jobs:
178
178
  - 5432:5432
179
179
 
180
180
  steps:
181
- - uses: actions/checkout@v5
181
+ - uses: actions/checkout@v6
182
182
 
183
183
  - name: Setup Node.js
184
184
  uses: actions/setup-node@v6
@@ -38,7 +38,7 @@ jobs:
38
38
  runs-on: ubuntu-latest
39
39
  steps:
40
40
  - name: Checkout
41
- uses: actions/checkout@v5
41
+ uses: actions/checkout@v6
42
42
  with:
43
43
  fetch-depth: 0
44
44
 
package/CHANGELOG.md CHANGED
@@ -2,6 +2,39 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ## [Version 2.0.0-next.213](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.212...v2.0.0-next.213)
6
+
7
+ <sup>Released on **2026-01-05**</sup>
8
+
9
+ #### 🐛 Bug Fixes
10
+
11
+ - **model-runtime**: Handle incremental tool call chunks in Qwen stream.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Update i18n.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### What's fixed
23
+
24
+ - **model-runtime**: Handle incremental tool call chunks in Qwen stream, closes [#11219](https://github.com/lobehub/lobe-chat/issues/11219) ([03b9407](https://github.com/lobehub/lobe-chat/commit/03b9407))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Update i18n, closes [#11213](https://github.com/lobehub/lobe-chat/issues/11213) ([00e0980](https://github.com/lobehub/lobe-chat/commit/00e0980))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
5
38
  ## [Version 2.0.0-next.212](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.211...v2.0.0-next.212)
6
39
 
7
40
  <sup>Released on **2026-01-05**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2026-01-05",
9
+ "version": "2.0.0-next.213"
10
+ },
2
11
  {
3
12
  "children": {},
4
13
  "date": "2026-01-05",
@@ -282,11 +282,9 @@
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
285
- "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
286
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
287
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
288
287
  "claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي مرئي بخطوات واضحة.",
289
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي مرئي بخطوات واضحة.",
290
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
291
289
  "codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
292
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
@@ -381,7 +379,6 @@
381
379
  "deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
382
380
  "deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
383
381
  "deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
384
- "deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
385
382
  "deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
386
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
387
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@@ -411,6 +408,40 @@
411
408
  "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) هو نموذج استدلال تجريبي من DeepSeek، مناسب للمهام المعقدة.",
412
409
  "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base هو إصدار محسّن من نموذج DeepSeek V3.",
413
410
  "deepseek/deepseek-v3.description": "نموذج لغوي عام سريع مع استدلال محسّن.",
411
+ "deepseek/deepseek-v3/community.description": "يُقدّم DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالإصدارات السابقة. يحتل المرتبة الأولى بين النماذج مفتوحة المصدر ويضاهي أكثر النماذج المغلقة تقدمًا. يعتمد DeepSeek-V3 على آلية الانتباه الكامن متعدد الرؤوس (MLA) وبنية DeepSeekMoE، وكلاهما تم التحقق منه بالكامل في DeepSeek-V2. كما يُدخل استراتيجية مساعدة غير فقدية لتحقيق توازن في التحميل، وهدف تدريب على التنبؤ بعدة رموز لتعزيز الأداء.",
412
+ "deepseek_r1.description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز يعالج مشكلات التكرار وقابلية القراءة. قبل تطبيق التعلم المعزز، يستخدم بيانات بداية باردة لتحسين أداء الاستدلال. يضاهي نموذج OpenAI-o1 في مهام الرياضيات والبرمجة والاستدلال، مع تدريب مصمم بعناية لتحسين النتائج العامة.",
413
+ "deepseek_r1_distill_llama_70b.description": "تم تقطير DeepSeek-R1-Distill-Llama-70B من Llama-3.3-70B-Instruct. كجزء من سلسلة DeepSeek-R1، تم ضبطه بدقة باستخدام عينات تم إنشاؤها بواسطة DeepSeek-R1، ويؤدي بقوة في مجالات الرياضيات والبرمجة والاستدلال.",
414
+ "deepseek_r1_distill_qwen_14b.description": "تم تقطير DeepSeek-R1-Distill-Qwen-14B من Qwen2.5-14B وتم ضبطه بدقة باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، مما يوفر أداءً قويًا في الاستدلال.",
415
+ "deepseek_r1_distill_qwen_32b.description": "تم تقطير DeepSeek-R1-Distill-Qwen-32B من Qwen2.5-32B وتم ضبطه بدقة باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويتفوق في مجالات الرياضيات والبرمجة والاستدلال.",
416
+ "devstral-2:123b.description": "يتفوق Devstral 2 123B في استخدام الأدوات لاستكشاف قواعد الشيفرة، وتحرير ملفات متعددة، ودعم وكلاء هندسة البرمجيات.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite هو نموذج خفيف الوزن جديد يتميز بسرعة استجابة فائقة، ويقدم جودة عالية وأداء منخفض الكمون من الدرجة الأولى.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k هو ترقية شاملة لـ Doubao-1.5-Pro، حيث يحسن الأداء العام بنسبة 10٪. يدعم نافذة سياق بحجم 256k وما يصل إلى 12k من الرموز الناتجة، مما يوفر أداءً أعلى، وسياقًا أوسع، وقيمة قوية لحالات الاستخدام المتنوعة.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro هو نموذج رائد من الجيل الجديد يتميز بترقيات شاملة، ويتفوق في المعرفة والبرمجة والاستدلال.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 هو نموذج جديد للاستدلال العميق (الإصدار m يدعم الاستدلال العميق متعدد الوسائط بشكل أصلي) ويتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق نتائج من الدرجة الأولى أو يقترب منها في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 هو نموذج جديد للاستدلال العميق يتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق نتائج من الدرجة الأولى أو يقترب منها في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
422
+ "doubao-1.5-thinking-vision-pro.description": "نموذج جديد للاستدلال البصري العميق يتمتع بفهم واستدلال متعدد الوسائط أقوى، ويحقق نتائج رائدة في 37 من أصل 59 معيارًا عامًا.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS هو نموذج وكيل يركز على واجهات المستخدم الرسومية (GUI) ويتفاعل بسلاسة مع الواجهات من خلال الإدراك البشري، والاستدلال، والعمل.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.",
427
+ "doubao-lite-128k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 128k.",
428
+ "doubao-lite-32k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.",
429
+ "doubao-lite-4k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 4k.",
430
+ "doubao-pro-256k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 256k.",
431
+ "doubao-pro-32k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash هو نموذج استدلال عميق متعدد الوسائط فائق السرعة بزمن معالجة منخفض يصل إلى 10 مللي ثانية. يدعم النصوص والرؤية، ويتفوق على النموذج الخفيف السابق في فهم النصوص، ويضاهي النماذج الاحترافية المنافسة في الرؤية. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite هو نموذج استدلال عميق متعدد الوسائط جديد مع جهد استدلال قابل للتعديل (أدنى، منخفض، متوسط، عالٍ)، يوفر قيمة أفضل وخيارًا قويًا للمهام الشائعة، مع نافذة سياق تصل إلى 256k.",
434
+ "doubao-seed-1.6-thinking.description": "يعزز Doubao-Seed-1.6-thinking قدرات الاستدلال بشكل كبير، ويحسن القدرات الأساسية في البرمجة والرياضيات والمنطق مقارنة بـ Doubao-1.5-thinking-pro، مع إضافة فهم بصري. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision هو نموذج استدلال بصري عميق يوفر فهمًا واستدلالًا متعدد الوسائط أقوى للتعليم، ومراجعة الصور، والتفتيش/الأمن، والبحث الذكي. يدعم نافذة سياق بحجم 256k وما يصل إلى 64k من الرموز الناتجة.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 هو نموذج استدلال عميق متعدد الوسائط جديد يدعم أوضاع التفكير التلقائي، والتفكير، وعدم التفكير. في وضع عدم التفكير، يتفوق بشكل كبير على Doubao-1.5-pro/250115. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 يتمتع بقدرات أقوى في الفهم متعدد الوسائط والقدرات الوكيلة، ويدعم إدخال النصوص/الصور/الفيديو مع تخزين السياق، ويوفر أداءً متميزًا في المهام المعقدة.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code مُحسَّن بعمق للبرمجة الوكيلة، ويدعم إدخالات متعددة الوسائط (نص/صورة/فيديو) ونافذة سياق بحجم 256k، ومتوافق مع واجهة Anthropic API، ومناسب للبرمجة، وفهم الرؤية، وسير عمل الوكلاء.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "نموذج الصور Doubao من ByteDance Seed يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور الموجه بالنص، مع أحجام إخراج تتراوح بين 512 و1536 على الجانب الطويل.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يؤدي بشكل جيد في مهام استخراج النصوص من الصور والاستدلال القائم على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يؤدي بشكل جيد في مهام استخراج النصوص من الصور والاستدلال القائم على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
444
+ "emohaa.description": "Emohaa هو نموذج للصحة النفسية يتمتع بقدرات استشارية احترافية لمساعدة المستخدمين على فهم المشكلات العاطفية.",
414
445
  "meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
415
446
  "meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
416
447
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
@@ -625,4 +656,4 @@
625
656
  "zai/glm-4.5.description": "سلسلة GLM-4.5 مصممة للوكلاء. النموذج الرائد GLM-4.5 يجمع بين الاستدلال، والبرمجة، ومهارات الوكلاء مع 355 مليار معلمة إجمالية (32 مليار نشطة) ويقدّم أوضاع تشغيل مزدوجة كنظام استدلال هجين.",
626
657
  "zai/glm-4.5v.description": "GLM-4.5V مبني على GLM-4.5-Air، ويَرِث تقنيات GLM-4.1V-Thinking المثبتة، ويتوسع ببنية MoE قوية بسعة 106 مليار.",
627
658
  "zenmux/auto.description": "يختار ZenMux auto-routing النموذج الأفضل من حيث القيمة والأداء من بين الخيارات المدعومة بناءً على طلبك."
628
- }
659
+ }
@@ -63,6 +63,7 @@
63
63
  "volcengine.description": "توفر منصة نماذج ByteDance وصولًا آمنًا وغنيًا بالميزات وفعالًا من حيث التكلفة إلى النماذج، بالإضافة إلى أدوات شاملة للبيانات، والتخصيص، والاستدلال، والتقييم.",
64
64
  "wenxin.description": "منصة متكاملة للمؤسسات لتطوير النماذج الأساسية والتطبيقات الذكية، تقدم أدوات شاملة لسير عمل النماذج التوليدية وتطبيقاتها.",
65
65
  "xai.description": "تقوم xAI ببناء ذكاء اصطناعي لتسريع الاكتشاف العلمي، بهدف تعميق فهم البشرية للكون.",
66
+ "xiaomimimo.description": "تقدم Xiaomi MiMo خدمة نموذج محادثة متوافقة مع واجهة برمجة تطبيقات OpenAI. يدعم نموذج mimo-v2-flash التفكير العميق، الإخراج المتدفق، استدعاء الوظائف، نافذة سياق بسعة 256 ألف، وإخراجًا أقصى يصل إلى 128 ألف.",
66
67
  "xinference.description": "Xorbits Inference (Xinference) هي منصة مفتوحة المصدر تسهّل تشغيل ودمج نماذج الذكاء الاصطناعي. تتيح تشغيل النماذج اللغوية الكبيرة، ونماذج التضمين، والنماذج متعددة الوسائط محليًا أو في السحابة لبناء تطبيقات ذكاء اصطناعي قوية.",
67
68
  "zenmux.description": "ZenMux هي منصة تجميع ذكاء اصطناعي موحدة تدعم OpenAI وAnthropic وGoogle VertexAI وغيرها، مع توجيه مرن لتبديل وإدارة النماذج بسهولة.",
68
69
  "zeroone.description": "01.AI تقود ثورة الذكاء الاصطناعي 2.0 المتمحورة حول الإنسان، باستخدام النماذج اللغوية الكبيرة لخلق قيمة اقتصادية واجتماعية وبناء أنظمة بيئية ونماذج أعمال جديدة.",
@@ -355,6 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
358
+ "deepseek-chat.description": "Нов модел с отворен код, съчетаващ общи и програмни способности. Съхранява общия диалогов капацитет на чат модела и силните програмни умения на кодиращия модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
358
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
359
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
360
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@@ -377,6 +378,7 @@
377
378
  "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
378
379
  "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
379
380
  "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
381
+ "deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 извежда верига от мисли преди крайния отговор за повишаване на точността.",
380
382
  "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
381
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
382
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@@ -390,6 +392,27 @@
390
392
  "deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.",
391
393
  "deepseek-vl2-small.description": "DeepSeek VL2 Small е лек мултимодален вариант за среди с ограничени ресурси и висока едновременност.",
392
394
  "deepseek-vl2.description": "DeepSeek VL2 е мултимодален модел за разбиране на изображения и текст и прецизни визуални въпроси и отговори.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 е MoE модел с 685 милиарда параметъра и най-новата итерация от водещата чат серия на DeepSeek.\n\nНадгражда [DeepSeek V3](/deepseek/deepseek-chat-v3) и се представя отлично в различни задачи.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 е MoE модел с 685 милиарда параметъра и най-новата итерация от водещата чат серия на DeepSeek.\n\nНадгражда [DeepSeek V3](/deepseek/deepseek-chat-v3) и се представя отлично в различни задачи.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 е хибриден модел за разсъждение с дълъг контекст от DeepSeek, поддържащ смесени режими на мислене/без мислене и интеграция с инструменти.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 е високоефективен хибриден модел за разсъждение от DeepSeek, предназначен за сложни задачи и интеграция с инструменти.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 е обновен вариант, фокусиран върху отворен достъп и по-дълбоко разсъждение.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значително подобрява разсъждението с минимално етикетирани данни и извежда верига от мисли преди крайния отговор за повишаване на точността.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B е дестилиран LLM, базиран на Llama 3.3 70B, фино настроен с изходи от DeepSeek R1 за постигане на конкурентна производителност спрямо водещите модели.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B е дестилиран LLM, базиран на Llama-3.1-8B-Instruct, обучен с изходи от DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B е дестилиран LLM, базиран на Qwen 2.5 14B, обучен с изходи от DeepSeek R1. Надминава OpenAI o1-mini в множество бенчмаркове, постигайки водещи резултати сред плътните модели. Основни резултати:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces рейтинг: 1481\nФиното настройване с изходи от DeepSeek R1 осигурява конкурентна производителност спрямо по-големи модели.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B е дестилиран LLM, базиран на Qwen 2.5 32B, обучен с изходи от DeepSeek R1. Надминава OpenAI o1-mini в множество бенчмаркове, постигайки водещи резултати сред плътните модели. Основни резултати:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces рейтинг: 1691\nФиното настройване с изходи от DeepSeek R1 осигурява конкурентна производителност спрямо по-големи модели.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 е обновен до DeepSeek-R1-0528. С повече изчислителна мощ и алгоритмични оптимизации след обучение, значително подобрява дълбочината и способността за разсъждение. Представя се отлично в бенчмаркове по математика, програмиране и логика, доближавайки се до водещи модели като o3 и Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 е най-новият модел с отворен код, пуснат от екипа на DeepSeek, с много силна производителност в разсъждението, особено в математика, програмиране и логически задачи, сравним с OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 значително подобрява разсъждението с минимално етикетирани данни и извежда верига от мисли преди крайния отговор за повишаване на точността.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) е експериментален модел за разсъждение от DeepSeek, подходящ за задачи с висока сложност.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base е подобрена версия на модела DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Бърз универсален LLM с подобрено разсъждение.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 постига значителен пробив в скоростта на разсъждение спрямо предишни модели. Класира се на първо място сред моделите с отворен код и съперничи на най-напредналите затворени модели. DeepSeek-V3 използва Multi-Head Latent Attention (MLA) и архитектурата DeepSeekMoE, и двете напълно валидирани в DeepSeek-V2. Въвежда и беззагубна помощна стратегия за балансиране на натоварването и цел за обучение с предсказване на множество токени за по-силна производителност.",
412
+ "deepseek_r1.description": "DeepSeek-R1 е модел за разсъждение, управляван от обучение чрез подсилване, който адресира проблеми с повторения и четимост. Преди RL използва начални данни за допълнително подобряване на разсъждението. Сравнява се с OpenAI-o1 в задачи по математика, програмиране и логика, с внимателно проектирано обучение за подобрени резултати.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B е дестилиран от Llama-3.3-70B-Instruct. Като част от серията DeepSeek-R1, е фино настроен с примери, генерирани от DeepSeek-R1, и се представя силно в математика, програмиране и разсъждение.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B е дестилиран от Qwen2.5-14B и фино настроен с 800K подбрани примера, генерирани от DeepSeek-R1, осигуряващ силно разсъждение.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B е дестилиран от Qwen2.5-32B и фино настроен с 800K подбрани примера, генерирани от DeepSeek-R1, отличаващ се в математика, програмиране и разсъждение.",
393
416
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
394
417
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
395
418
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -622,4 +645,4 @@
622
645
  "zai/glm-4.5.description": "Серията GLM-4.5 е проектирана за агенти. Флагманският GLM-4.5 комбинира разсъждение, програмиране и агентни умения с 355B общи параметри (32B активни) и предлага два режима на работа като хибридна система за разсъждение.",
623
646
  "zai/glm-4.5v.description": "GLM-4.5V надгражда GLM-4.5-Air, наследявайки доказани техники от GLM-4.1V-Thinking и мащабира с мощна MoE архитектура с 106 милиарда параметъра.",
624
647
  "zenmux/auto.description": "ZenMux автоматично избира най-добрия модел по стойност и производителност от поддържаните опции според вашата заявка."
625
- }
648
+ }