@lobehub/chat 1.139.0 → 1.139.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/ISSUE_TEMPLATE/1_bug_report.yml +63 -19
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +12 -0
- package/locales/ar/welcome.json +0 -17
- package/locales/bg-BG/models.json +12 -0
- package/locales/bg-BG/welcome.json +0 -17
- package/locales/de-DE/models.json +12 -0
- package/locales/de-DE/welcome.json +0 -17
- package/locales/en-US/models.json +12 -0
- package/locales/en-US/welcome.json +0 -17
- package/locales/es-ES/models.json +12 -0
- package/locales/es-ES/welcome.json +0 -17
- package/locales/fa-IR/models.json +12 -0
- package/locales/fa-IR/welcome.json +0 -17
- package/locales/fr-FR/models.json +12 -0
- package/locales/fr-FR/welcome.json +0 -17
- package/locales/it-IT/models.json +12 -0
- package/locales/it-IT/welcome.json +0 -17
- package/locales/ja-JP/models.json +12 -0
- package/locales/ja-JP/welcome.json +0 -17
- package/locales/ko-KR/chat.json +1 -1
- package/locales/ko-KR/models.json +12 -0
- package/locales/ko-KR/welcome.json +0 -17
- package/locales/nl-NL/models.json +12 -0
- package/locales/nl-NL/welcome.json +0 -17
- package/locales/pl-PL/models.json +12 -0
- package/locales/pl-PL/welcome.json +0 -17
- package/locales/pt-BR/models.json +12 -0
- package/locales/pt-BR/welcome.json +0 -17
- package/locales/ru-RU/models.json +12 -0
- package/locales/ru-RU/welcome.json +0 -17
- package/locales/tr-TR/models.json +12 -0
- package/locales/tr-TR/welcome.json +0 -17
- package/locales/vi-VN/models.json +12 -0
- package/locales/vi-VN/welcome.json +0 -17
- package/locales/zh-CN/models.json +12 -0
- package/locales/zh-CN/welcome.json +0 -17
- package/locales/zh-TW/models.json +12 -0
- package/locales/zh-TW/welcome.json +0 -17
- package/next.config.ts +1 -0
- package/package.json +4 -2
- package/packages/model-runtime/package.json +1 -0
- package/packages/obervability-otel/package.json +2 -2
- package/src/app/[variants]/(main)/_layout/Desktop/SideBar/index.tsx +11 -7
- package/src/layout/GlobalProvider/StoreInitialization.tsx +4 -1
- package/src/libs/swr/index.ts +13 -0
- package/src/libs/trpc/client/lambda.ts +13 -3
- package/src/locales/default/welcome.ts +0 -17
- package/src/store/agent/slices/chat/action.ts +4 -2
- package/src/store/aiInfra/slices/aiProvider/action.ts +5 -3
- package/src/store/chat/slices/message/action.ts +0 -4
|
@@ -5,10 +5,38 @@ type: Bug
|
|
|
5
5
|
body:
|
|
6
6
|
- type: dropdown
|
|
7
7
|
attributes:
|
|
8
|
-
label: '
|
|
8
|
+
label: '📱 Client Type'
|
|
9
|
+
description: 'Select how you are accessing LobeChat'
|
|
10
|
+
multiple: true
|
|
11
|
+
options:
|
|
12
|
+
- 'Web (Desktop Browser)'
|
|
13
|
+
- 'Web (Mobile Browser)'
|
|
14
|
+
- 'Desktop App (Electron)'
|
|
15
|
+
- 'Mobile App (React Native)'
|
|
16
|
+
- 'Other'
|
|
17
|
+
validations:
|
|
18
|
+
required: true
|
|
19
|
+
|
|
20
|
+
- type: dropdown
|
|
21
|
+
attributes:
|
|
22
|
+
label: '💻 Operating System'
|
|
23
|
+
multiple: true
|
|
24
|
+
options:
|
|
25
|
+
- 'Windows'
|
|
26
|
+
- 'macOS'
|
|
27
|
+
- 'Ubuntu'
|
|
28
|
+
- 'Other Linux'
|
|
29
|
+
- 'iOS'
|
|
30
|
+
- 'Android'
|
|
31
|
+
- 'Other'
|
|
32
|
+
validations:
|
|
33
|
+
required: true
|
|
34
|
+
|
|
35
|
+
- type: dropdown
|
|
36
|
+
attributes:
|
|
37
|
+
label: '📦 Deployment Platform'
|
|
9
38
|
multiple: true
|
|
10
39
|
options:
|
|
11
|
-
- 'Official Preview'
|
|
12
40
|
- 'Official Cloud'
|
|
13
41
|
- 'Vercel'
|
|
14
42
|
- 'Zeabur'
|
|
@@ -17,37 +45,25 @@ body:
|
|
|
17
45
|
- 'Self hosting Docker'
|
|
18
46
|
- 'Other'
|
|
19
47
|
validations:
|
|
20
|
-
required:
|
|
48
|
+
required: false
|
|
49
|
+
|
|
21
50
|
- type: dropdown
|
|
22
51
|
attributes:
|
|
23
|
-
label: '
|
|
52
|
+
label: '🔧 Deployment Mode'
|
|
24
53
|
multiple: true
|
|
25
54
|
options:
|
|
26
55
|
- 'client db (lobe-chat image)'
|
|
27
56
|
- 'client pgelite db (lobe-chat-pglite image)'
|
|
28
|
-
- 'server db(lobe-chat-database image)'
|
|
57
|
+
- 'server db (lobe-chat-database image)'
|
|
29
58
|
validations:
|
|
30
59
|
required: true
|
|
60
|
+
|
|
31
61
|
- type: input
|
|
32
62
|
attributes:
|
|
33
63
|
label: '📌 Version'
|
|
34
64
|
validations:
|
|
35
65
|
required: true
|
|
36
66
|
|
|
37
|
-
- type: dropdown
|
|
38
|
-
attributes:
|
|
39
|
-
label: '💻 Operating System'
|
|
40
|
-
multiple: true
|
|
41
|
-
options:
|
|
42
|
-
- 'Windows'
|
|
43
|
-
- 'macOS'
|
|
44
|
-
- 'Ubuntu'
|
|
45
|
-
- 'Other Linux'
|
|
46
|
-
- 'iOS'
|
|
47
|
-
- 'Android'
|
|
48
|
-
- 'Other'
|
|
49
|
-
validations:
|
|
50
|
-
required: true
|
|
51
67
|
- type: dropdown
|
|
52
68
|
attributes:
|
|
53
69
|
label: '🌐 Browser'
|
|
@@ -60,21 +76,49 @@ body:
|
|
|
60
76
|
- 'Other'
|
|
61
77
|
validations:
|
|
62
78
|
required: true
|
|
79
|
+
|
|
63
80
|
- type: textarea
|
|
64
81
|
attributes:
|
|
65
82
|
label: '🐛 Bug Description'
|
|
66
83
|
description: A clear and concise description of the bug, if the above option is `Other`, please also explain in detail.
|
|
67
84
|
validations:
|
|
68
85
|
required: true
|
|
86
|
+
|
|
69
87
|
- type: textarea
|
|
70
88
|
attributes:
|
|
71
89
|
label: '📷 Recurrence Steps'
|
|
72
90
|
description: A clear and concise description of how to recurrence.
|
|
91
|
+
|
|
73
92
|
- type: textarea
|
|
74
93
|
attributes:
|
|
75
94
|
label: '🚦 Expected Behavior'
|
|
76
95
|
description: A clear and concise description of what you expected to happen.
|
|
96
|
+
|
|
77
97
|
- type: textarea
|
|
78
98
|
attributes:
|
|
79
99
|
label: '📝 Additional Information'
|
|
80
100
|
description: If your problem needs further explanation, or if the issue you're seeing cannot be reproduced in a gist, please add more information here.
|
|
101
|
+
|
|
102
|
+
- type: dropdown
|
|
103
|
+
attributes:
|
|
104
|
+
label: '🛠️ Willing to Submit a PR?'
|
|
105
|
+
description: Would you be willing to submit a pull request to fix this bug?
|
|
106
|
+
options:
|
|
107
|
+
- 'Yes, I am willing to submit a PR'
|
|
108
|
+
- 'No, but I am happy to help test the fix'
|
|
109
|
+
validations:
|
|
110
|
+
required: false
|
|
111
|
+
|
|
112
|
+
- type: checkboxes
|
|
113
|
+
attributes:
|
|
114
|
+
label: '✅ Validations'
|
|
115
|
+
description: Before submitting the issue, please make sure you do the following
|
|
116
|
+
options:
|
|
117
|
+
- label: Read the [docs](https://lobehub.com/zh/docs).
|
|
118
|
+
required: true
|
|
119
|
+
- label: Check that there isn't [already an issue](https://github.com/lobehub/lobe-chat/issues) that reports the same bug to avoid creating a duplicate.
|
|
120
|
+
required: true
|
|
121
|
+
- label: Make sure this is a LobeChat issue and not a third-party library or provider issue.
|
|
122
|
+
required: true
|
|
123
|
+
- label: Check that this is a concrete bug. For Q&A, please use [GitHub Discussions](https://github.com/lobehub/lobe-chat/discussions) or join our [Discord Server](https://discord.gg/rGHwKq4R).
|
|
124
|
+
required: true
|
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,64 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
### [Version 1.139.2](https://github.com/lobehub/lobe-chat/compare/v1.139.1...v1.139.2)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2025-10-20**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Solve when desktop the sider agent list too long.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Solve when desktop the sider agent list too long, closes [#9792](https://github.com/lobehub/lobe-chat/issues/9792) ([778dea3](https://github.com/lobehub/lobe-chat/commit/778dea3))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
30
|
+
### [Version 1.139.1](https://github.com/lobehub/lobe-chat/compare/v1.139.0...v1.139.1)
|
|
31
|
+
|
|
32
|
+
<sup>Released on **2025-10-20**</sup>
|
|
33
|
+
|
|
34
|
+
#### ♻ Code Refactoring
|
|
35
|
+
|
|
36
|
+
- **i18n**: Rm qa.
|
|
37
|
+
|
|
38
|
+
#### 💄 Styles
|
|
39
|
+
|
|
40
|
+
- **misc**: Update i18n.
|
|
41
|
+
|
|
42
|
+
<br/>
|
|
43
|
+
|
|
44
|
+
<details>
|
|
45
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
46
|
+
|
|
47
|
+
#### Code refactoring
|
|
48
|
+
|
|
49
|
+
- **i18n**: Rm qa, closes [#9783](https://github.com/lobehub/lobe-chat/issues/9783) ([6d14dfe](https://github.com/lobehub/lobe-chat/commit/6d14dfe))
|
|
50
|
+
|
|
51
|
+
#### Styles
|
|
52
|
+
|
|
53
|
+
- **misc**: Update i18n, closes [#9787](https://github.com/lobehub/lobe-chat/issues/9787) ([b43d4b2](https://github.com/lobehub/lobe-chat/commit/b43d4b2))
|
|
54
|
+
|
|
55
|
+
</details>
|
|
56
|
+
|
|
57
|
+
<div align="right">
|
|
58
|
+
|
|
59
|
+
[](#readme-top)
|
|
60
|
+
|
|
61
|
+
</div>
|
|
62
|
+
|
|
5
63
|
## [Version 1.139.0](https://github.com/lobehub/lobe-chat/compare/v1.138.5...v1.139.0)
|
|
6
64
|
|
|
7
65
|
<sup>Released on **2025-10-19**</sup>
|
package/changelog/v1.json
CHANGED
|
@@ -1,4 +1,22 @@
|
|
|
1
1
|
[
|
|
2
|
+
{
|
|
3
|
+
"children": {
|
|
4
|
+
"improvements": [
|
|
5
|
+
"Solve when desktop the sider agent list too long."
|
|
6
|
+
]
|
|
7
|
+
},
|
|
8
|
+
"date": "2025-10-20",
|
|
9
|
+
"version": "1.139.2"
|
|
10
|
+
},
|
|
11
|
+
{
|
|
12
|
+
"children": {
|
|
13
|
+
"improvements": [
|
|
14
|
+
"Update i18n."
|
|
15
|
+
]
|
|
16
|
+
},
|
|
17
|
+
"date": "2025-10-20",
|
|
18
|
+
"version": "1.139.1"
|
|
19
|
+
},
|
|
2
20
|
{
|
|
3
21
|
"children": {
|
|
4
22
|
"features": [
|
package/locales/ar/models.json
CHANGED
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview هو أحدث نموذج بحث تجريبي من Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي. من خلال استكشاف آليات معقدة مثل خلط اللغة والاستدلال التكراري، تشمل المزايا الرئيسية القدرة القوية على التحليل الاستدلالي، والقدرات الرياضية والبرمجية. في الوقت نفسه، هناك أيضًا مشكلات في تبديل اللغة، ودورات الاستدلال، واعتبارات الأمان، واختلافات في القدرات الأخرى."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image هو نموذج أساسي لتوليد الصور تم تطويره من قبل فريق Tongyi Qianwen التابع لشركة Alibaba، ويحتوي على 20 مليار معلمة. حقق هذا النموذج تقدمًا ملحوظًا في عرض النصوص المعقدة وتحرير الصور بدقة، ويتميز بقدرته العالية على توليد صور تحتوي على نصوص صينية وإنجليزية عالية الدقة. لا يقتصر عمل Qwen-Image على معالجة تخطيطات متعددة الأسطر والنصوص على مستوى الفقرات، بل يحافظ أيضًا على اتساق التنسيق وتناسق السياق أثناء توليد الصور. بالإضافة إلى قدراته الفائقة في عرض النصوص، يدعم النموذج مجموعة واسعة من الأساليب الفنية، من الصور الواقعية إلى الجماليات الأنمي، مما يجعله قادرًا على التكيف مع مختلف احتياجات الإبداع. كما يتمتع بقدرات قوية في تحرير الصور وفهمها، ويدعم عمليات متقدمة مثل نقل الأسلوب، إضافة أو إزالة العناصر، تعزيز التفاصيل، تحرير النصوص، وحتى التحكم في وضعيات الجسم البشري، ليكون نموذجًا أساسيًا شاملاً لمعالجة الصور الذكية يجمع بين اللغة والتنسيق والصورة."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 هو أحدث إصدار لتحرير الصور من نموذج Qwen-Image، تم تطويره من قبل فريق Tongyi Qianwen التابع لشركة Alibaba. يعتمد هذا النموذج على Qwen-Image الذي يحتوي على 20 مليار معلمة، وتم تدريبه بعمق لتوسيع قدراته الفريدة في عرض النصوص إلى مجال تحرير الصور، مما يتيح تحريرًا دقيقًا للنصوص داخل الصور. يستخدم Qwen-Image-Edit بنية مبتكرة تُدخل الصورة إلى كل من Qwen2.5-VL (للتحكم في المعنى البصري) وVAE Encoder (للتحكم في المظهر البصري)، مما يمنحه قدرة مزدوجة على التحرير من حيث المعنى والمظهر. وهذا يعني أنه لا يدعم فقط تحرير المظهر المحلي مثل الإضافة أو الحذف أو التعديل، بل يدعم أيضًا تحريرًا بصريًا دلاليًا متقدمًا يتطلب الحفاظ على الاتساق المعنوي، مثل إنشاء محتوى IP أو نقل الأسلوب. وقد أظهر النموذج أداءً رائدًا (SOTA) في العديد من اختبارات المعايير العامة، مما يجعله نموذجًا أساسيًا قويًا لتحرير الصور."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا، مصمم خصيصًا لمهام الاستدلال المعقدة. يعتمد على بنية Qwen3-Next المبتكرة التي تدمج آلية انتباه هجينة (Gated DeltaNet و Gated Attention) وهيكل خبراء مختلط عالي التشتت (MoE)، بهدف تحقيق أقصى كفاءة في التدريب والاستدلال. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. نسخة \"Thinking\" هذه مخصصة لتنفيذ مهام متعددة الخطوات عالية الصعوبة مثل الإثباتات الرياضية، توليف الشيفرة، التحليل المنطقي والتخطيط، وتخرج عملية الاستدلال بشكل افتراضي في شكل \"سلسلة تفكير\" منظمة. من حيث الأداء، يتفوق هذا النموذج ليس فقط على نماذج ذات تكلفة أعلى مثل Qwen3-32B-Thinking، بل يتفوق أيضًا في عدة اختبارات معيارية على Gemini-2.5-Flash-Thinking."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct هو نموذج لغة بصرية من سلسلة Qwen3، تم تطويره استنادًا إلى Qwen3-8B-Instruct وتدريبه على كمية كبيرة من بيانات الصور والنصوص. يتميز بقدرته على فهم الرؤية العامة، وإجراء حوارات تتمحور حول المحتوى البصري، والتعرف على النصوص متعددة اللغات داخل الصور. وهو مناسب لتطبيقات مثل الأسئلة والأجوبة البصرية، ووصف الصور، واتباع التعليمات متعددة الوسائط، واستدعاء الأدوات."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking هو إصدار التفكير البصري من سلسلة Qwen3، تم تحسينه خصيصًا لمهام الاستدلال المعقدة متعددة الخطوات. يقوم بشكل افتراضي بتوليد سلسلة من الأفكار (thinking chain) قبل الإجابة لتحسين دقة الاستدلال. وهو مناسب للسيناريوهات التي تتطلب استدلالًا عميقًا مثل الأسئلة والأجوبة البصرية، ومراجعة محتوى الصور وتقديم تحليلات مفصلة."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات."
|
|
397
409
|
},
|
package/locales/ar/welcome.json
CHANGED
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "دائرة الكتابة"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "ما هو LobeHub؟",
|
|
345
|
-
"q02": "ما هو {{appName}}؟",
|
|
346
|
-
"q03": "هل يوجد دعم مجتمعي لـ {{appName}}؟",
|
|
347
|
-
"q04": "ما هي الميزات التي يدعمها {{appName}}؟",
|
|
348
|
-
"q05": "كيف يمكن نشر واستخدام {{appName}}؟",
|
|
349
|
-
"q06": "كيف يتم تسعير {{appName}}؟",
|
|
350
|
-
"q07": "هل {{appName}} مجاني؟",
|
|
351
|
-
"q08": "هل هناك نسخة سحابية؟",
|
|
352
|
-
"q09": "هل يدعم نماذج اللغة المحلية؟",
|
|
353
|
-
"q10": "هل يدعم التعرف على الصور وتوليدها؟",
|
|
354
|
-
"q11": "هل يدعم تحويل النص إلى كلام والتعرف على الصوت؟",
|
|
355
|
-
"q12": "هل يدعم نظام الإضافات؟",
|
|
356
|
-
"q13": "هل يوجد سوق خاص للحصول على GPTs؟",
|
|
357
|
-
"q14": "هل يدعم مزودي خدمات الذكاء الاصطناعي المتعددين؟",
|
|
358
|
-
"q15": "ماذا يجب أن أفعل إذا واجهت مشكلة أثناء الاستخدام؟"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "معرفة المزيد",
|
|
362
345
|
"title": "جرّب أن تسأل:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview е най-новият експериментален изследователски модел на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности. Чрез изследване на сложни механизми като езикови смеси и рекурсивно разсъждение, основните предимства включват мощни аналитични способности, математически и програмистки умения. В същото време съществуват проблеми с езиковото превключване, цикли на разсъждение, съображения за безопасност и разлики в други способности."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image е базов модел за генериране на изображения, разработен от екипа на Tongyi Qianwen в Alibaba, с 20 милиарда параметъра. Моделът постига значителен напредък в сложния текстов рендеринг и прецизното редактиране на изображения, като е особено добър в създаването на изображения с висококачествен текст както на китайски, така и на английски език. Qwen-Image може да обработва многострочно оформление и текст на ниво абзац, като същевременно поддържа последователност в типографията и хармония в контекста при генериране на изображения. Освен изключителните си способности за текстов рендеринг, моделът поддържа широка гама от художествени стилове — от реалистична фотография до аниме естетика — и може гъвкаво да се адаптира към различни творчески нужди. Също така притежава мощни възможности за редактиране и разбиране на изображения, включително трансфер на стил, добавяне и премахване на обекти, подобряване на детайли, редактиране на текст и дори управление на човешки пози. Целта му е да бъде цялостен интелигентен базов модел за визуално творчество и обработка, който обединява език, оформление и изображение."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 е най-новата версия за редактиране на изображения от Qwen-Image, разработена от екипа на Tongyi Qianwen в Alibaba. Моделът е допълнително обучен на базата на Qwen-Image с 20 милиарда параметъра и успешно разширява уникалните си способности за текстов рендеринг в областта на редактирането на изображения, позволявайки прецизна редакция на текст в изображения. Qwen-Image-Edit използва иновативна архитектура, при която входното изображение се подава едновременно към Qwen2.5-VL (за семантичен визуален контрол) и VAE Encoder (за контрол на визуалния външен вид), осигурявайки двойна способност за редактиране както на семантиката, така и на външния вид. Това означава, че моделът поддържа не само локални редакции като добавяне, премахване или промяна на елементи, но и по-сложни семантични редакции, изискващи запазване на смисъла, като създаване на IP съдържание и трансфер на стил. Моделът показва водеща (SOTA) производителност в множество публични бенчмаркове, което го прави мощен базов модел за редактиране на изображения."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking е следващото поколение основен модел, публикуван от екипа на Alibaba Tongyi Qianwen, специално проектиран за сложни задачи за разсъждение. Той е базиран на иновативната архитектура Qwen3-Next, която комбинира хибриден механизъм за внимание (Gated DeltaNet и Gated Attention) и структура с висока степен на разреждане на смесени експерти (MoE), с цел постигане на изключителна ефективност при обучение и извод. Като разреден модел с общо 80 милиарда параметри, при извод активира само около 3 милиарда параметри, което значително намалява изчислителните разходи. При обработка на задачи с дълъг контекст над 32K токена, пропускателната способност при извод е над 10 пъти по-висока в сравнение с модела Qwen3-32B. Тази „Thinking“ версия е оптимизирана за изпълнение на сложни многостъпкови задачи като математически доказателства, синтез на код, логически анализ и планиране, като по подразбиране изходът на разсъжденията е във формата на структурирана „мисловна верига“. По отношение на производителността, тя не само превъзхожда модели с по-високи разходи като Qwen3-32B-Thinking, но и превъзхожда Gemini-2.5-Flash-Thinking в множество бенчмаркове."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct е визуално-езиков модел от серията Qwen3, базиран на Qwen3-8B-Instruct и обучен върху голям обем от данни с изображения и текст. Той е особено добър в общо визуално разбиране, визуално-центрирани диалози и разпознаване на многоезичен текст в изображения. Подходящ е за визуални въпроси и отговори, описание на изображения, мултимодални инструкции и използване на инструменти."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking е версия от серията Qwen3, фокусирана върху визуално мислене, оптимизирана за сложни задачи с многостъпково разсъждение. По подразбиране генерира верига от мисли (thinking chain) преди отговора, за да подобри точността на разсъжденията. Подходящ е за визуални въпроси и отговори, които изискват дълбоко разсъждение, преглед на съдържанието на изображения и предоставяне на подробен анализ."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Кръг на писателите"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Какво е LobeHub?",
|
|
345
|
-
"q02": "Какво е {{appName}}?",
|
|
346
|
-
"q03": "Има ли общностна поддръжка за {{appName}}?",
|
|
347
|
-
"q04": "Какви функции поддържа {{appName}}?",
|
|
348
|
-
"q05": "Как да инсталирам и използвам {{appName}}?",
|
|
349
|
-
"q06": "Каква е ценовата политика на {{appName}}?",
|
|
350
|
-
"q07": "Дали {{appName}} е безплатен?",
|
|
351
|
-
"q08": "Има ли облачна версия на услугата?",
|
|
352
|
-
"q09": "Поддържа ли локални езикови модели?",
|
|
353
|
-
"q10": "Поддържа ли разпознаване и генериране на изображения?",
|
|
354
|
-
"q11": "Поддържа ли синтез на реч и разпознаване на реч?",
|
|
355
|
-
"q12": "Поддържа ли система за плъгини?",
|
|
356
|
-
"q13": "Има ли собствен пазар за получаване на GPTs?",
|
|
357
|
-
"q14": "Поддържа ли различни доставчици на AI услуги?",
|
|
358
|
-
"q15": "Какво да направя, ако срещна проблеми при използването?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Научи повече",
|
|
362
345
|
"title": "Опитайте да попитате:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview ist das neueste experimentelle Forschungsmodell von Qwen, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert. Durch die Erforschung komplexer Mechanismen wie Sprachmischung und rekursive Inferenz bietet es Hauptvorteile wie starke Analysefähigkeiten, mathematische und Programmierfähigkeiten. Gleichzeitig gibt es Herausforderungen wie Sprachwechsel, Inferenzzyklen, Sicherheitsüberlegungen und Unterschiede in anderen Fähigkeiten."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image ist ein von Alibabas Tongyi Qianwen-Team entwickeltes Basismodell zur Bildgenerierung mit 20 Milliarden Parametern. Das Modell erzielt bemerkenswerte Fortschritte bei der komplexen Textrendering und präzisen Bildbearbeitung und ist besonders gut darin, Bilder mit hochauflösenden chinesischen und englischen Texten zu erzeugen. Qwen-Image kann nicht nur mehrzeilige Layouts und absatzweise Texte verarbeiten, sondern bewahrt auch die Kohärenz des Layouts und die Kontextharmonie bei der Bildgenerierung. Neben seiner herausragenden Textrendering-Fähigkeit unterstützt das Modell eine breite Palette künstlerischer Stile – von realistischen Fotografien bis hin zu Anime-Ästhetik – und passt sich flexibel an verschiedene kreative Anforderungen an. Darüber hinaus verfügt es über leistungsstarke Bildbearbeitungs- und Bildverständnisfähigkeiten, einschließlich Stiltransfer, Objektentfernung und -hinzufügung, Detailverbesserung, Textbearbeitung und sogar Steuerung menschlicher Posen. Ziel ist es, ein umfassendes intelligentes Basismodell für visuelle Kreation und Verarbeitung zu sein, das Sprache, Layout und Bild vereint."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 ist die neueste Version des Bildbearbeitungsmodells Qwen-Image, entwickelt vom Tongyi Qianwen-Team bei Alibaba. Das Modell basiert auf dem 20B-Parameter-Modell Qwen-Image und wurde gezielt weitertrainiert, um dessen einzigartige Textrendering-Fähigkeiten erfolgreich auf den Bereich der Bildbearbeitung zu übertragen – insbesondere für die präzise Bearbeitung von Texten in Bildern. Qwen-Image-Edit verwendet eine innovative Architektur, bei der das Eingabebild gleichzeitig in Qwen2.5-VL (für semantische Steuerung) und den VAE-Encoder (für visuelle Erscheinungskontrolle) eingespeist wird. Dadurch ermöglicht es sowohl semantische als auch visuelle Bearbeitungen. Das bedeutet, dass es nicht nur lokale visuelle Änderungen wie das Hinzufügen, Entfernen oder Modifizieren von Elementen unterstützt, sondern auch komplexe semantische Bearbeitungen wie IP-Kreationen oder Stilübertragungen, bei denen die inhaltliche Konsistenz gewahrt bleibt. In mehreren öffentlichen Benchmark-Tests erzielte das Modell Spitzenleistungen (SOTA) und etabliert sich damit als leistungsstarkes Basismodell für die Bildbearbeitung."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking ist ein von Alibaba Tongyi Qianwen Team veröffentlichtes nächstes Generation Basis-Modell, das speziell für komplexe Inferenzaufgaben entwickelt wurde. Es basiert auf der innovativen Qwen3-Next-Architektur, die hybride Aufmerksamkeitsmechanismen (Gated DeltaNet und Gated Attention) mit einer hochgradig spärlichen Mixture-of-Experts (MoE)-Struktur kombiniert, um höchste Trainings- und Inferenz-Effizienz zu gewährleisten. Als spärliches Modell mit insgesamt 80 Milliarden Parametern werden bei der Inferenz nur etwa 3 Milliarden Parameter aktiviert, was die Rechenkosten stark reduziert. Bei der Verarbeitung von Langkontextaufgaben mit über 32K Tokens übertrifft der Durchsatz das Qwen3-32B-Modell um das Zehnfache. Diese „Thinking“-Version ist für anspruchsvolle mehrstufige Aufgaben wie mathematische Beweise, Code-Synthese, logische Analyse und Planung optimiert und gibt den Inferenzprozess standardmäßig in strukturierter „Denkketten“-Form aus. In der Leistung übertrifft es nicht nur kostenintensivere Modelle wie Qwen3-32B-Thinking, sondern auch in mehreren Benchmarks das Gemini-2.5-Flash-Thinking."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct ist ein visuelles Sprachmodell der Qwen3-Serie, basierend auf Qwen3-8B-Instruct und auf umfangreichen Bild-Text-Daten trainiert. Es ist spezialisiert auf allgemeines visuelles Verständnis, visuell zentrierte Dialoge und mehrsprachige Texterkennung in Bildern. Es eignet sich für Szenarien wie visuelle Frage-Antwort-Systeme, Bildbeschreibungen, multimodale Befehlsausführung und Tool-Integration."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking ist die Version der Qwen3-Serie mit Fokus auf visuelles Denken. Sie wurde für komplexe, mehrstufige Schlussfolgerungsaufgaben optimiert und generiert standardmäßig eine schrittweise Denkweise (Thinking Chain), um die Genauigkeit der Schlussfolgerungen zu verbessern. Ideal für Szenarien, die tiefgreifende visuelle Analysen erfordern, wie visuelle Frage-Antwort-Systeme oder die detaillierte Auswertung von Bildinhalten."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das 128k Kontext unterstützt. Im Vergleich zu den derzeit besten Open-Source-Modellen übertrifft Qwen2-72B in den Bereichen natürliche Sprachverständnis, Wissen, Code, Mathematik und Mehrsprachigkeit deutlich die führenden Modelle."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Schreibteam"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Was ist LobeHub?",
|
|
345
|
-
"q02": "Was ist {{appName}}?",
|
|
346
|
-
"q03": "Hat {{appName}} Community-Support?",
|
|
347
|
-
"q04": "Welche Funktionen unterstützt {{appName}}?",
|
|
348
|
-
"q05": "Wie wird {{appName}} bereitgestellt und verwendet?",
|
|
349
|
-
"q06": "Wie ist die Preisgestaltung von {{appName}}?",
|
|
350
|
-
"q07": "Ist {{appName}} kostenlos?",
|
|
351
|
-
"q08": "Gibt es eine Cloud-Service-Version?",
|
|
352
|
-
"q09": "Unterstützt es lokale Sprachmodelle?",
|
|
353
|
-
"q10": "Unterstützt es Bildverarbeitung und -erzeugung?",
|
|
354
|
-
"q11": "Unterstützt es Sprachsynthese und Spracherkennung?",
|
|
355
|
-
"q12": "Unterstützt es ein Plug-in-System?",
|
|
356
|
-
"q13": "Gibt es einen eigenen Marktplatz für GPTs?",
|
|
357
|
-
"q14": "Unterstützt es mehrere AI-Dienstanbieter?",
|
|
358
|
-
"q15": "Was soll ich tun, wenn ich Probleme bei der Nutzung habe?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Mehr erfahren",
|
|
362
345
|
"title": "Versuchen Sie zu fragen:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview is Qwen's latest experimental research model, focusing on enhancing AI reasoning capabilities. By exploring complex mechanisms such as language mixing and recursive reasoning, its main advantages include strong analytical reasoning, mathematical, and programming abilities. However, it also faces challenges such as language switching issues, reasoning loops, safety considerations, and differences in other capabilities."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image is a foundational image generation model developed by Alibaba's Tongyi Qianwen team, featuring 20 billion parameters. The model has made significant advancements in complex text rendering and precise image editing, excelling particularly at generating images with high-fidelity Chinese and English text. Qwen-Image can handle multi-line layouts and paragraph-level text while maintaining coherent typography and contextual harmony in generated images. Beyond its exceptional text rendering capabilities, the model supports a wide range of artistic styles—from photorealism to anime aesthetics—adapting flexibly to diverse creative needs. It also boasts powerful image editing and understanding capabilities, supporting advanced operations such as style transfer, object addition/removal, detail enhancement, text editing, and even human pose manipulation. Qwen-Image is designed to be a comprehensive foundational model for intelligent visual creation and processing, integrating language, layout, and imagery."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 is the latest image editing version of Qwen-Image, released by Alibaba's Tongyi Qianwen team. Built upon the 20B-parameter Qwen-Image model, it has been further trained to extend its unique text rendering capabilities into the domain of image editing, enabling precise manipulation of text within images. Qwen-Image-Edit employs an innovative architecture that feeds the input image into both Qwen2.5-VL (for visual semantic control) and a VAE Encoder (for visual appearance control), enabling dual editing capabilities in both semantics and appearance. This allows for not only localized visual edits such as adding, removing, or modifying elements, but also high-level semantic edits like IP creation and style transfer that require semantic consistency. The model has demonstrated state-of-the-art (SOTA) performance across multiple public benchmarks, making it a powerful foundational model for image editing."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking is the next-generation foundational model released by Alibaba's Tongyi Qianwen team, specifically designed for complex reasoning tasks. It is based on the innovative Qwen3-Next architecture, which integrates a hybrid attention mechanism (Gated DeltaNet and Gated Attention) and a highly sparse mixture-of-experts (MoE) structure, aiming for ultimate training and inference efficiency. As a sparse model with a total of 80 billion parameters, it activates only about 3 billion parameters during inference, greatly reducing computational costs. When processing long-context tasks exceeding 32K tokens, its throughput is more than 10 times higher than the Qwen3-32B model. This \"Thinking\" version is optimized for executing challenging multi-step tasks such as mathematical proofs, code synthesis, logical analysis, and planning, and by default outputs the reasoning process in a structured \"chain-of-thought\" format. In terms of performance, it not only surpasses higher-cost models like Qwen3-32B-Thinking but also outperforms Gemini-2.5-Flash-Thinking on multiple benchmarks."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct is a vision-language model from the Qwen3 series, built on Qwen3-8B-Instruct and trained on a large corpus of image-text data. It excels at general visual understanding, vision-centric dialogue, and multilingual text recognition within images. It is well-suited for tasks such as visual question answering, image captioning, multimodal instruction following, and tool invocation."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking is the visual reasoning variant of the Qwen3 series, optimized for complex multi-step reasoning tasks. By default, it generates a step-by-step thinking chain before answering, enhancing reasoning accuracy. It is ideal for scenarios requiring in-depth reasoning, such as visual question answering and detailed analysis of image content."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 is the latest series of the Qwen model, supporting 128k context. Compared to the current best open-source models, Qwen2-72B significantly surpasses leading models in natural language understanding, knowledge, coding, mathematics, and multilingual capabilities."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Writing Circle"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "What is LobeHub?",
|
|
345
|
-
"q02": "What is {{appName}}?",
|
|
346
|
-
"q03": "Does {{appName}} have community support?",
|
|
347
|
-
"q04": "What features does {{appName}} support?",
|
|
348
|
-
"q05": "How do I deploy and use {{appName}}?",
|
|
349
|
-
"q06": "What is the pricing for {{appName}}?",
|
|
350
|
-
"q07": "Is {{appName}} free?",
|
|
351
|
-
"q08": "Is there a cloud service version available?",
|
|
352
|
-
"q09": "Does it support local language models?",
|
|
353
|
-
"q10": "Does it support image recognition and generation?",
|
|
354
|
-
"q11": "Does it support speech synthesis and speech recognition?",
|
|
355
|
-
"q12": "Does it support a plugin system?",
|
|
356
|
-
"q13": "Is there a marketplace to acquire GPTs?",
|
|
357
|
-
"q14": "Does it support multiple AI service providers?",
|
|
358
|
-
"q15": "What should I do if I encounter issues while using it?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Learn More",
|
|
362
345
|
"title": "Try asking:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview es el último modelo de investigación experimental de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA. A través de la exploración de mecanismos complejos como la mezcla de lenguajes y el razonamiento recursivo, sus principales ventajas incluyen una poderosa capacidad de análisis de razonamiento, así como habilidades matemáticas y de programación. Sin embargo, también presenta problemas de cambio de idioma, ciclos de razonamiento, consideraciones de seguridad y diferencias en otras capacidades."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image es un modelo base de generación de imágenes desarrollado por el equipo Tongyi Qianwen de Alibaba, con 20 mil millones de parámetros. Este modelo ha logrado avances significativos en la representación compleja de texto y la edición precisa de imágenes, destacándose especialmente en la generación de imágenes con texto en chino e inglés de alta fidelidad. Qwen-Image no solo puede manejar diseños de múltiples líneas y textos a nivel de párrafo, sino que también mantiene la coherencia tipográfica y la armonía contextual al generar imágenes. Además de su sobresaliente capacidad de renderizado de texto, el modelo admite una amplia gama de estilos artísticos, desde fotografía realista hasta estética de anime, adaptándose con flexibilidad a diversas necesidades creativas. También posee potentes capacidades de edición y comprensión de imágenes, incluyendo transferencia de estilo, adición y eliminación de objetos, mejora de detalles, edición de texto e incluso manipulación de posturas humanas. Su objetivo es convertirse en un modelo base integral para la creación y procesamiento visual inteligente que integre lenguaje, diseño y contenido visual."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 es la versión más reciente de edición de imágenes del modelo Qwen-Image, lanzado por el equipo Tongyi Qianwen de Alibaba. Este modelo ha sido entrenado en profundidad sobre la base del modelo Qwen-Image de 20 mil millones de parámetros, extendiendo con éxito su capacidad única de renderizado de texto al ámbito de la edición de imágenes, logrando una edición precisa del texto dentro de las imágenes. Qwen-Image-Edit adopta una arquitectura innovadora que envía la imagen de entrada simultáneamente a Qwen2.5-VL (para el control semántico visual) y al codificador VAE (para el control de la apariencia visual), lo que le otorga una capacidad de edición dual tanto semántica como visual. Esto significa que no solo permite ediciones locales de apariencia como agregar, eliminar o modificar elementos, sino también ediciones semánticas visuales avanzadas que requieren coherencia semántica, como la creación de propiedad intelectual (IP) o la transferencia de estilo. El modelo ha demostrado un rendimiento de vanguardia (SOTA) en múltiples pruebas de referencia públicas, consolidándose como un potente modelo base para la edición de imágenes."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking es un modelo base de próxima generación lanzado por el equipo Tongyi Qianwen de Alibaba, diseñado específicamente para tareas complejas de razonamiento. Basado en la innovadora arquitectura Qwen3-Next, que integra mecanismos de atención híbrida (Gated DeltaNet y Gated Attention) y una estructura de expertos mixtos altamente dispersos (MoE), busca alcanzar una eficiencia extrema en entrenamiento e inferencia. Como modelo disperso con 80 mil millones de parámetros totales, solo activa alrededor de 3 mil millones durante la inferencia, reduciendo considerablemente el costo computacional. En tareas de contexto largo que superan los 32K tokens, su rendimiento es más de 10 veces superior al modelo Qwen3-32B. Esta versión “Thinking” está optimizada para ejecutar tareas complejas de múltiples pasos como demostraciones matemáticas, síntesis de código, análisis lógico y planificación, y por defecto produce el proceso de razonamiento en forma estructurada de “cadena de pensamiento”. En rendimiento, supera no solo a modelos más costosos como Qwen3-32B-Thinking, sino también a Gemini-2.5-Flash-Thinking en múltiples benchmarks."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct es un modelo de lenguaje visual de la serie Qwen3, desarrollado a partir de Qwen3-8B-Instruct y entrenado con grandes volúmenes de datos de texto e imagen. Se especializa en comprensión visual general, diálogos centrados en lo visual y reconocimiento multilingüe de texto en imágenes. Es adecuado para tareas como preguntas y respuestas visuales, descripción de imágenes, seguimiento de instrucciones multimodales y activación de herramientas."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking es la versión de razonamiento visual de la serie Qwen3, optimizada para tareas complejas de razonamiento en múltiples pasos. Por defecto, genera una cadena de pensamiento antes de responder, con el fin de mejorar la precisión del razonamiento. Es ideal para escenarios que requieren razonamiento profundo, como preguntas y respuestas visuales complejas o análisis detallado del contenido de imágenes."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 es la última serie del modelo Qwen, que admite un contexto de 128k. En comparación con los modelos de código abierto más óptimos actuales, Qwen2-72B supera significativamente a los modelos líderes actuales en comprensión del lenguaje natural, conocimiento, código, matemáticas y capacidades multilingües."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Círculo de escritura"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "¿Qué es LobeHub?",
|
|
345
|
-
"q02": "¿Qué es {{appName}}?",
|
|
346
|
-
"q03": "¿{{appName}} tiene soporte comunitario?",
|
|
347
|
-
"q04": "¿Qué funciones soporta {{appName}}?",
|
|
348
|
-
"q05": "¿Cómo se despliega y utiliza {{appName}}?",
|
|
349
|
-
"q06": "¿Cuál es el precio de {{appName}}?",
|
|
350
|
-
"q07": "¿{{appName}} es gratuito?",
|
|
351
|
-
"q08": "¿Hay una versión en la nube?",
|
|
352
|
-
"q09": "¿Soporta modelos de lenguaje locales?",
|
|
353
|
-
"q10": "¿Soporta reconocimiento y generación de imágenes?",
|
|
354
|
-
"q11": "¿Soporta síntesis de voz y reconocimiento de voz?",
|
|
355
|
-
"q12": "¿Soporta un sistema de plugins?",
|
|
356
|
-
"q13": "¿Tiene su propio mercado para obtener GPTs?",
|
|
357
|
-
"q14": "¿Soporta múltiples proveedores de servicios de IA?",
|
|
358
|
-
"q15": "¿Qué debo hacer si tengo problemas al usarlo?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Saber más",
|
|
362
345
|
"title": "Intenta preguntar:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزمهای پیچیدهای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامهنویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقههای استدلال، ملاحظات ایمنی و تفاوتهای دیگر در تواناییها وجود دارد."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image یک مدل پایه تولید تصویر است که توسط تیم Tongyi Qianwen شرکت علیبابا توسعه یافته و دارای ۲۰ میلیارد پارامتر میباشد. این مدل در رندر متون پیچیده و ویرایش دقیق تصاویر پیشرفتهای چشمگیری داشته و بهویژه در تولید تصاویری با متون چینی و انگلیسی با وفاداری بالا بسیار توانمند است. Qwen-Image نه تنها قادر به پردازش چیدمانهای چندخطی و متون در سطح پاراگراف است، بلکه در حین تولید تصویر، انسجام تایپوگرافی و هماهنگی با زمینه را نیز حفظ میکند. افزون بر توانایی برجسته در رندر متن، این مدل از سبکهای هنری متنوعی پشتیبانی میکند؛ از عکسهای واقعگرایانه گرفته تا زیباییشناسی انیمه، و میتواند بهطور انعطافپذیر با نیازهای مختلف خلاقانه سازگار شود. همچنین، این مدل دارای قابلیتهای قدرتمند در ویرایش و درک تصویر است و از عملیات پیشرفتهای مانند انتقال سبک، افزودن یا حذف اشیاء، تقویت جزئیات، ویرایش متن و حتی کنترل حالت بدن انسان پشتیبانی میکند. هدف آن تبدیل شدن به یک مدل پایه هوشمند و جامع برای خلق و پردازش بصری است که زبان، چیدمان و تصویر را در هم میآمیزد."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 جدیدترین نسخه ویرایش تصویر از مدل Qwen-Image است که توسط تیم Tongyi Qianwen شرکت علیبابا منتشر شده است. این مدل بر پایه مدل ۲۰ میلیارد پارامتری Qwen-Image توسعه یافته و با آموزش عمیق، توانایی منحصربهفرد خود در رندر متن را به حوزه ویرایش تصویر گسترش داده و امکان ویرایش دقیق متون درون تصویر را فراهم کرده است. Qwen-Image-Edit از معماری نوآورانهای بهره میبرد که تصویر ورودی را بهطور همزمان به Qwen2.5-VL (برای کنترل معنایی بصری) و VAE Encoder (برای کنترل ظاهر بصری) ارسال میکند و بدین ترتیب توانایی ویرایش دوگانه در سطح معنا و ظاهر را فراهم میسازد. این بدان معناست که مدل نه تنها از ویرایشهای ظاهری موضعی مانند افزودن، حذف یا تغییر عناصر پشتیبانی میکند، بلکه قادر به انجام ویرایشهای معنایی پیشرفتهای مانند خلق IP، انتقال سبک و حفظ انسجام معنایی نیز میباشد. این مدل در چندین آزمون معیار عمومی عملکردی در سطح پیشرفته (SOTA) از خود نشان داده و به یک مدل پایه قدرتمند در زمینه ویرایش تصویر تبدیل شده است."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen 2 Instruct (72B) دستورالعملهای دقیق برای کاربردهای سازمانی ارائه میدهد و به درستی به آنها پاسخ میدهد."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علیبابا برای وظایف استنتاج پیچیده طراحی شده است. این مدل بر اساس معماری نوآورانه Qwen3-Next ساخته شده که مکانیزم توجه ترکیبی (Gated DeltaNet و Gated Attention) و ساختار متخصص ترکیبی با پراکندگی بالا (MoE) را ادغام میکند تا به بالاترین کارایی در آموزش و استنتاج دست یابد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال میشوند که هزینه محاسباتی را به طور چشمگیری کاهش میدهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی آن بیش از ۱۰ برابر مدل Qwen3-32B است. این نسخه «Thinking» به طور خاص برای انجام وظایف چندمرحلهای دشوار مانند اثبات ریاضی، ترکیب کد، تحلیل منطقی و برنامهریزی بهینه شده و به طور پیشفرض فرایند استنتاج را به صورت ساختاریافته و در قالب «زنجیره فکری» ارائه میدهد. از نظر عملکرد، این مدل نه تنها از مدلهای پرهزینهتر مانند Qwen3-32B-Thinking پیشی گرفته، بلکه در چندین بنچمارک از Gemini-2.5-Flash-Thinking نیز بهتر عمل میکند."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct یکی از مدلهای زبان-بینایی از سری Qwen3 است که بر پایه Qwen3-8B-Instruct توسعه یافته و با حجم زیادی از دادههای متنی-تصویری آموزش دیده است. این مدل در درک عمومی بصری، گفتوگوهای مبتنی بر تصویر و شناسایی متون چندزبانه در تصاویر مهارت دارد. مناسب برای کاربردهایی مانند پرسش و پاسخ بصری، توصیف تصویر، پیروی از دستورات چندوجهی و فراخوانی ابزارها میباشد."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking نسخه تفکر بصری از سری Qwen3 است که برای انجام وظایف پیچیده و چندمرحلهای استدلالی بهینهسازی شده است. این مدل بهطور پیشفرض پیش از پاسخدهی، زنجیرهای از تفکر مرحلهبهمرحله تولید میکند تا دقت استدلال را افزایش دهد. مناسب برای سناریوهایی است که نیاز به استدلال عمیق در پرسش و پاسخ بصری، بررسی محتوای تصویر و ارائه تحلیلهای دقیق دارند."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 جدیدترین سری مدلهای Qwen است که از 128k زمینه پشتیبانی میکند. در مقایسه با بهترین مدلهای متنباز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدلهای پیشرو فعلی فراتر رفته است."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "حلقه نویسندگی"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "LobeHub چیست؟",
|
|
345
|
-
"q02": "{{appName}} چیست؟",
|
|
346
|
-
"q03": "آیا {{appName}} پشتیبانی جامعه دارد؟",
|
|
347
|
-
"q04": "{{appName}} چه قابلیتهایی دارد؟",
|
|
348
|
-
"q05": "چگونه میتوان {{appName}} را مستقر و استفاده کرد؟",
|
|
349
|
-
"q06": "قیمتگذاری {{appName}} چگونه است؟",
|
|
350
|
-
"q07": "آیا {{appName}} رایگان است؟",
|
|
351
|
-
"q08": "آیا نسخه ابری وجود دارد؟",
|
|
352
|
-
"q09": "آیا از مدلهای زبانی محلی پشتیبانی میشود؟",
|
|
353
|
-
"q10": "آیا از تشخیص و تولید تصویر پشتیبانی میشود؟",
|
|
354
|
-
"q11": "آیا از تبدیل متن به گفتار و تشخیص گفتار پشتیبانی میشود؟",
|
|
355
|
-
"q12": "آیا از سیستم افزونهها پشتیبانی میشود؟",
|
|
356
|
-
"q13": "آیا بازار مخصوصی برای دریافت GPTها وجود دارد؟",
|
|
357
|
-
"q14": "آیا از چندین ارائهدهنده خدمات هوش مصنوعی پشتیبانی میشود؟",
|
|
358
|
-
"q15": "اگر در حین استفاده با مشکلی مواجه شدم، چه کاری باید انجام دهم؟"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "بیشتر بدانید",
|
|
362
345
|
"title": "سعی کن بپرسی:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview est le dernier modèle de recherche expérimental de Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA. En explorant des mécanismes complexes tels que le mélange de langues et le raisonnement récursif, ses principaux avantages incluent de puissantes capacités d'analyse de raisonnement, ainsi que des compétences en mathématiques et en programmation. Cependant, il existe également des problèmes de changement de langue, des cycles de raisonnement, des considérations de sécurité et des différences dans d'autres capacités."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image est un modèle de base de génération d’images développé par l’équipe Qwen d’Alibaba, doté de 20 milliards de paramètres. Ce modèle a réalisé des avancées significatives dans le rendu complexe de texte et l’édition d’image de haute précision, avec une capacité remarquable à générer des images contenant du texte en chinois et en anglais avec une grande fidélité. Qwen-Image gère non seulement la mise en page sur plusieurs lignes et les textes de niveau paragraphe, mais maintient également la cohérence typographique et l’harmonie contextuelle lors de la génération d’images. En plus de ses performances exceptionnelles en rendu de texte, le modèle prend en charge une large gamme de styles artistiques, allant de la photographie réaliste à l’esthétique anime, s’adaptant avec souplesse à divers besoins créatifs. Il dispose également de puissantes capacités d’édition et de compréhension d’images, permettant des opérations avancées telles que le transfert de style, l’ajout ou la suppression d’objets, l’amélioration des détails, l’édition de texte et même le contrôle de la posture humaine. L’objectif est d’en faire un modèle de base intelligent et polyvalent pour la création et le traitement visuel, intégrant langage, mise en page et image."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 est la dernière version d’édition d’image du modèle Qwen-Image, développée par l’équipe Qwen d’Alibaba. Ce modèle repose sur les 20 milliards de paramètres de Qwen-Image et a été entraîné en profondeur pour étendre ses capacités uniques de rendu de texte au domaine de l’édition d’image, permettant une modification précise du texte dans les images. Qwen-Image-Edit adopte une architecture innovante, envoyant l’image d’entrée simultanément à Qwen2.5-VL (pour le contrôle sémantique visuel) et à un encodeur VAE (pour le contrôle de l’apparence visuelle), offrant ainsi une double capacité d’édition sémantique et visuelle. Cela signifie qu’il prend en charge non seulement les modifications locales de l’apparence telles que l’ajout, la suppression ou la modification d’éléments, mais aussi des éditions sémantiques avancées nécessitant une cohérence conceptuelle, comme la création d’IP ou le transfert de style. Le modèle a démontré des performances de pointe (SOTA) sur plusieurs benchmarks publics, en faisant un modèle de base puissant pour l’édition d’image."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking est un modèle de base de nouvelle génération publié par l'équipe Tongyi Qianwen d'Alibaba, spécialement conçu pour les tâches de raisonnement complexes. Il repose sur l'architecture innovante Qwen3-Next, qui intègre un mécanisme d'attention hybride (Gated DeltaNet et Gated Attention) et une structure d'experts mixtes à haute sparsité (MoE), visant une efficacité extrême en entraînement et inférence. En tant que modèle sparse totalisant 80 milliards de paramètres, il n'active qu'environ 3 milliards de paramètres lors de l'inférence, réduisant significativement les coûts de calcul. Pour les tâches à contexte long dépassant 32K tokens, son débit est plus de 10 fois supérieur à celui du modèle Qwen3-32B. Cette version « Thinking » est optimisée pour exécuter des tâches complexes à étapes multiples telles que preuves mathématiques, synthèse de code, analyse logique et planification, et produit par défaut le processus de raisonnement sous forme structurée de « chaîne de pensée ». En termes de performance, il dépasse non seulement des modèles plus coûteux comme Qwen3-32B-Thinking, mais surpasse également Gemini-2.5-Flash-Thinking sur plusieurs benchmarks."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct est un modèle de langage visuel de la série Qwen3, développé à partir de Qwen3-8B-Instruct et entraîné sur un grand volume de données image-texte. Il excelle dans la compréhension visuelle générale, les dialogues centrés sur l’image et la reconnaissance multilingue de texte dans les images. Il est adapté aux cas d’usage tels que les questions-réponses visuelles, la description d’images, le suivi d’instructions multimodales et l’appel d’outils."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking est la version orientée raisonnement visuel de la série Qwen3, optimisée pour les tâches complexes de raisonnement en plusieurs étapes. Par défaut, il génère une chaîne de réflexion (thinking chain) avant de répondre, afin d’améliorer la précision du raisonnement. Il est particulièrement adapté aux scénarios nécessitant une analyse approfondie, comme les questions-réponses visuelles complexes ou l’examen détaillé du contenu d’une image."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le code, les mathématiques et le multilinguisme."
|
|
397
409
|
},
|