@lobehub/chat 1.138.5 → 1.139.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (54) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/models.json +12 -0
  4. package/locales/ar/welcome.json +0 -17
  5. package/locales/bg-BG/models.json +12 -0
  6. package/locales/bg-BG/welcome.json +0 -17
  7. package/locales/de-DE/models.json +12 -0
  8. package/locales/de-DE/welcome.json +0 -17
  9. package/locales/en-US/models.json +12 -0
  10. package/locales/en-US/welcome.json +0 -17
  11. package/locales/es-ES/models.json +12 -0
  12. package/locales/es-ES/welcome.json +0 -17
  13. package/locales/fa-IR/models.json +12 -0
  14. package/locales/fa-IR/welcome.json +0 -17
  15. package/locales/fr-FR/models.json +12 -0
  16. package/locales/fr-FR/welcome.json +0 -17
  17. package/locales/it-IT/models.json +12 -0
  18. package/locales/it-IT/welcome.json +0 -17
  19. package/locales/ja-JP/models.json +12 -0
  20. package/locales/ja-JP/welcome.json +0 -17
  21. package/locales/ko-KR/models.json +12 -0
  22. package/locales/ko-KR/welcome.json +0 -17
  23. package/locales/nl-NL/models.json +12 -0
  24. package/locales/nl-NL/welcome.json +0 -17
  25. package/locales/pl-PL/models.json +12 -0
  26. package/locales/pl-PL/welcome.json +0 -17
  27. package/locales/pt-BR/models.json +12 -0
  28. package/locales/pt-BR/welcome.json +0 -17
  29. package/locales/ru-RU/models.json +12 -0
  30. package/locales/ru-RU/welcome.json +0 -17
  31. package/locales/tr-TR/models.json +12 -0
  32. package/locales/tr-TR/welcome.json +0 -17
  33. package/locales/vi-VN/models.json +12 -0
  34. package/locales/vi-VN/welcome.json +0 -17
  35. package/locales/zh-CN/models.json +12 -0
  36. package/locales/zh-CN/welcome.json +0 -17
  37. package/locales/zh-TW/models.json +12 -0
  38. package/locales/zh-TW/welcome.json +0 -17
  39. package/next.config.ts +1 -0
  40. package/package.json +5 -3
  41. package/packages/model-bank/src/aiModels/akashchat.ts +0 -1
  42. package/packages/model-bank/src/aiModels/groq.ts +3 -3
  43. package/packages/model-bank/src/aiModels/huggingface.ts +0 -2
  44. package/packages/model-bank/src/aiModels/siliconcloud.ts +92 -0
  45. package/packages/model-runtime/src/core/contextBuilders/huggingface.test.ts +325 -0
  46. package/packages/model-runtime/src/core/contextBuilders/huggingface.ts +69 -0
  47. package/packages/model-runtime/src/providers/huggingface/index.test.ts +666 -166
  48. package/packages/model-runtime/src/providers/huggingface/index.ts +77 -46
  49. package/packages/model-runtime/src/providers/huggingface/type.ts +31 -0
  50. package/packages/model-runtime/src/providers/siliconcloud/createImage.ts +139 -0
  51. package/packages/model-runtime/src/providers/siliconcloud/index.ts +2 -0
  52. package/src/app/(backend)/webapi/stt/openai/route.ts +4 -1
  53. package/src/app/(backend)/webapi/tts/openai/route.ts +1 -1
  54. package/src/locales/default/welcome.ts +0 -17
package/CHANGELOG.md CHANGED
@@ -2,6 +2,64 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.139.1](https://github.com/lobehub/lobe-chat/compare/v1.139.0...v1.139.1)
6
+
7
+ <sup>Released on **2025-10-20**</sup>
8
+
9
+ #### ♻ Code Refactoring
10
+
11
+ - **i18n**: Rm qa.
12
+
13
+ #### 💄 Styles
14
+
15
+ - **misc**: Update i18n.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### Code refactoring
23
+
24
+ - **i18n**: Rm qa, closes [#9783](https://github.com/lobehub/lobe-chat/issues/9783) ([6d14dfe](https://github.com/lobehub/lobe-chat/commit/6d14dfe))
25
+
26
+ #### Styles
27
+
28
+ - **misc**: Update i18n, closes [#9787](https://github.com/lobehub/lobe-chat/issues/9787) ([b43d4b2](https://github.com/lobehub/lobe-chat/commit/b43d4b2))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
38
+ ## [Version 1.139.0](https://github.com/lobehub/lobe-chat/compare/v1.138.5...v1.139.0)
39
+
40
+ <sup>Released on **2025-10-19**</sup>
41
+
42
+ #### ✨ Features
43
+
44
+ - **misc**: Support image generation for siliconcloud.
45
+
46
+ <br/>
47
+
48
+ <details>
49
+ <summary><kbd>Improvements and Fixes</kbd></summary>
50
+
51
+ #### What's improved
52
+
53
+ - **misc**: Support image generation for siliconcloud, closes [#9447](https://github.com/lobehub/lobe-chat/issues/9447) ([5ebcfa5](https://github.com/lobehub/lobe-chat/commit/5ebcfa5))
54
+
55
+ </details>
56
+
57
+ <div align="right">
58
+
59
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
60
+
61
+ </div>
62
+
5
63
  ### [Version 1.138.5](https://github.com/lobehub/lobe-chat/compare/v1.138.4...v1.138.5)
6
64
 
7
65
  <sup>Released on **2025-10-18**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,22 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2025-10-20",
9
+ "version": "1.139.1"
10
+ },
11
+ {
12
+ "children": {
13
+ "features": [
14
+ "Support image generation for siliconcloud."
15
+ ]
16
+ },
17
+ "date": "2025-10-19",
18
+ "version": "1.139.0"
19
+ },
2
20
  {
3
21
  "children": {
4
22
  "improvements": [
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview هو أحدث نموذج بحث تجريبي من Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي. من خلال استكشاف آليات معقدة مثل خلط اللغة والاستدلال التكراري، تشمل المزايا الرئيسية القدرة القوية على التحليل الاستدلالي، والقدرات الرياضية والبرمجية. في الوقت نفسه، هناك أيضًا مشكلات في تبديل اللغة، ودورات الاستدلال، واعتبارات الأمان، واختلافات في القدرات الأخرى."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image هو نموذج أساسي لتوليد الصور تم تطويره من قبل فريق Tongyi Qianwen التابع لشركة Alibaba، ويحتوي على 20 مليار معلمة. حقق هذا النموذج تقدمًا ملحوظًا في عرض النصوص المعقدة وتحرير الصور بدقة، ويتميز بقدرته العالية على توليد صور تحتوي على نصوص صينية وإنجليزية عالية الدقة. لا يقتصر عمل Qwen-Image على معالجة تخطيطات متعددة الأسطر والنصوص على مستوى الفقرات، بل يحافظ أيضًا على اتساق التنسيق وتناسق السياق أثناء توليد الصور. بالإضافة إلى قدراته الفائقة في عرض النصوص، يدعم النموذج مجموعة واسعة من الأساليب الفنية، من الصور الواقعية إلى الجماليات الأنمي، مما يجعله قادرًا على التكيف مع مختلف احتياجات الإبداع. كما يتمتع بقدرات قوية في تحرير الصور وفهمها، ويدعم عمليات متقدمة مثل نقل الأسلوب، إضافة أو إزالة العناصر، تعزيز التفاصيل، تحرير النصوص، وحتى التحكم في وضعيات الجسم البشري، ليكون نموذجًا أساسيًا شاملاً لمعالجة الصور الذكية يجمع بين اللغة والتنسيق والصورة."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 هو أحدث إصدار لتحرير الصور من نموذج Qwen-Image، تم تطويره من قبل فريق Tongyi Qianwen التابع لشركة Alibaba. يعتمد هذا النموذج على Qwen-Image الذي يحتوي على 20 مليار معلمة، وتم تدريبه بعمق لتوسيع قدراته الفريدة في عرض النصوص إلى مجال تحرير الصور، مما يتيح تحريرًا دقيقًا للنصوص داخل الصور. يستخدم Qwen-Image-Edit بنية مبتكرة تُدخل الصورة إلى كل من Qwen2.5-VL (للتحكم في المعنى البصري) وVAE Encoder (للتحكم في المظهر البصري)، مما يمنحه قدرة مزدوجة على التحرير من حيث المعنى والمظهر. وهذا يعني أنه لا يدعم فقط تحرير المظهر المحلي مثل الإضافة أو الحذف أو التعديل، بل يدعم أيضًا تحريرًا بصريًا دلاليًا متقدمًا يتطلب الحفاظ على الاتساق المعنوي، مثل إنشاء محتوى IP أو نقل الأسلوب. وقد أظهر النموذج أداءً رائدًا (SOTA) في العديد من اختبارات المعايير العامة، مما يجعله نموذجًا أساسيًا قويًا لتحرير الصور."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا، مصمم خصيصًا لمهام الاستدلال المعقدة. يعتمد على بنية Qwen3-Next المبتكرة التي تدمج آلية انتباه هجينة (Gated DeltaNet و Gated Attention) وهيكل خبراء مختلط عالي التشتت (MoE)، بهدف تحقيق أقصى كفاءة في التدريب والاستدلال. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. نسخة \"Thinking\" هذه مخصصة لتنفيذ مهام متعددة الخطوات عالية الصعوبة مثل الإثباتات الرياضية، توليف الشيفرة، التحليل المنطقي والتخطيط، وتخرج عملية الاستدلال بشكل افتراضي في شكل \"سلسلة تفكير\" منظمة. من حيث الأداء، يتفوق هذا النموذج ليس فقط على نماذج ذات تكلفة أعلى مثل Qwen3-32B-Thinking، بل يتفوق أيضًا في عدة اختبارات معيارية على Gemini-2.5-Flash-Thinking."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct هو نموذج لغة بصرية من سلسلة Qwen3، تم تطويره استنادًا إلى Qwen3-8B-Instruct وتدريبه على كمية كبيرة من بيانات الصور والنصوص. يتميز بقدرته على فهم الرؤية العامة، وإجراء حوارات تتمحور حول المحتوى البصري، والتعرف على النصوص متعددة اللغات داخل الصور. وهو مناسب لتطبيقات مثل الأسئلة والأجوبة البصرية، ووصف الصور، واتباع التعليمات متعددة الوسائط، واستدعاء الأدوات."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking هو إصدار التفكير البصري من سلسلة Qwen3، تم تحسينه خصيصًا لمهام الاستدلال المعقدة متعددة الخطوات. يقوم بشكل افتراضي بتوليد سلسلة من الأفكار (thinking chain) قبل الإجابة لتحسين دقة الاستدلال. وهو مناسب للسيناريوهات التي تتطلب استدلالًا عميقًا مثل الأسئلة والأجوبة البصرية، ومراجعة محتوى الصور وتقديم تحليلات مفصلة."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "دائرة الكتابة"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "ما هو LobeHub؟",
345
- "q02": "ما هو {{appName}}؟",
346
- "q03": "هل يوجد دعم مجتمعي لـ {{appName}}؟",
347
- "q04": "ما هي الميزات التي يدعمها {{appName}}؟",
348
- "q05": "كيف يمكن نشر واستخدام {{appName}}؟",
349
- "q06": "كيف يتم تسعير {{appName}}؟",
350
- "q07": "هل {{appName}} مجاني؟",
351
- "q08": "هل هناك نسخة سحابية؟",
352
- "q09": "هل يدعم نماذج اللغة المحلية؟",
353
- "q10": "هل يدعم التعرف على الصور وتوليدها؟",
354
- "q11": "هل يدعم تحويل النص إلى كلام والتعرف على الصوت؟",
355
- "q12": "هل يدعم نظام الإضافات؟",
356
- "q13": "هل يوجد سوق خاص للحصول على GPTs؟",
357
- "q14": "هل يدعم مزودي خدمات الذكاء الاصطناعي المتعددين؟",
358
- "q15": "ماذا يجب أن أفعل إذا واجهت مشكلة أثناء الاستخدام؟"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "معرفة المزيد",
362
345
  "title": "جرّب أن تسأل:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview е най-новият експериментален изследователски модел на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности. Чрез изследване на сложни механизми като езикови смеси и рекурсивно разсъждение, основните предимства включват мощни аналитични способности, математически и програмистки умения. В същото време съществуват проблеми с езиковото превключване, цикли на разсъждение, съображения за безопасност и разлики в други способности."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image е базов модел за генериране на изображения, разработен от екипа на Tongyi Qianwen в Alibaba, с 20 милиарда параметъра. Моделът постига значителен напредък в сложния текстов рендеринг и прецизното редактиране на изображения, като е особено добър в създаването на изображения с висококачествен текст както на китайски, така и на английски език. Qwen-Image може да обработва многострочно оформление и текст на ниво абзац, като същевременно поддържа последователност в типографията и хармония в контекста при генериране на изображения. Освен изключителните си способности за текстов рендеринг, моделът поддържа широка гама от художествени стилове — от реалистична фотография до аниме естетика — и може гъвкаво да се адаптира към различни творчески нужди. Също така притежава мощни възможности за редактиране и разбиране на изображения, включително трансфер на стил, добавяне и премахване на обекти, подобряване на детайли, редактиране на текст и дори управление на човешки пози. Целта му е да бъде цялостен интелигентен базов модел за визуално творчество и обработка, който обединява език, оформление и изображение."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 е най-новата версия за редактиране на изображения от Qwen-Image, разработена от екипа на Tongyi Qianwen в Alibaba. Моделът е допълнително обучен на базата на Qwen-Image с 20 милиарда параметъра и успешно разширява уникалните си способности за текстов рендеринг в областта на редактирането на изображения, позволявайки прецизна редакция на текст в изображения. Qwen-Image-Edit използва иновативна архитектура, при която входното изображение се подава едновременно към Qwen2.5-VL (за семантичен визуален контрол) и VAE Encoder (за контрол на визуалния външен вид), осигурявайки двойна способност за редактиране както на семантиката, така и на външния вид. Това означава, че моделът поддържа не само локални редакции като добавяне, премахване или промяна на елементи, но и по-сложни семантични редакции, изискващи запазване на смисъла, като създаване на IP съдържание и трансфер на стил. Моделът показва водеща (SOTA) производителност в множество публични бенчмаркове, което го прави мощен базов модел за редактиране на изображения."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking е следващото поколение основен модел, публикуван от екипа на Alibaba Tongyi Qianwen, специално проектиран за сложни задачи за разсъждение. Той е базиран на иновативната архитектура Qwen3-Next, която комбинира хибриден механизъм за внимание (Gated DeltaNet и Gated Attention) и структура с висока степен на разреждане на смесени експерти (MoE), с цел постигане на изключителна ефективност при обучение и извод. Като разреден модел с общо 80 милиарда параметри, при извод активира само около 3 милиарда параметри, което значително намалява изчислителните разходи. При обработка на задачи с дълъг контекст над 32K токена, пропускателната способност при извод е над 10 пъти по-висока в сравнение с модела Qwen3-32B. Тази „Thinking“ версия е оптимизирана за изпълнение на сложни многостъпкови задачи като математически доказателства, синтез на код, логически анализ и планиране, като по подразбиране изходът на разсъжденията е във формата на структурирана „мисловна верига“. По отношение на производителността, тя не само превъзхожда модели с по-високи разходи като Qwen3-32B-Thinking, но и превъзхожда Gemini-2.5-Flash-Thinking в множество бенчмаркове."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct е визуално-езиков модел от серията Qwen3, базиран на Qwen3-8B-Instruct и обучен върху голям обем от данни с изображения и текст. Той е особено добър в общо визуално разбиране, визуално-центрирани диалози и разпознаване на многоезичен текст в изображения. Подходящ е за визуални въпроси и отговори, описание на изображения, мултимодални инструкции и използване на инструменти."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking е версия от серията Qwen3, фокусирана върху визуално мислене, оптимизирана за сложни задачи с многостъпково разсъждение. По подразбиране генерира верига от мисли (thinking chain) преди отговора, за да подобри точността на разсъжденията. Подходящ е за визуални въпроси и отговори, които изискват дълбоко разсъждение, преглед на съдържанието на изображения и предоставяне на подробен анализ."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "Кръг на писателите"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "Какво е LobeHub?",
345
- "q02": "Какво е {{appName}}?",
346
- "q03": "Има ли общностна поддръжка за {{appName}}?",
347
- "q04": "Какви функции поддържа {{appName}}?",
348
- "q05": "Как да инсталирам и използвам {{appName}}?",
349
- "q06": "Каква е ценовата политика на {{appName}}?",
350
- "q07": "Дали {{appName}} е безплатен?",
351
- "q08": "Има ли облачна версия на услугата?",
352
- "q09": "Поддържа ли локални езикови модели?",
353
- "q10": "Поддържа ли разпознаване и генериране на изображения?",
354
- "q11": "Поддържа ли синтез на реч и разпознаване на реч?",
355
- "q12": "Поддържа ли система за плъгини?",
356
- "q13": "Има ли собствен пазар за получаване на GPTs?",
357
- "q14": "Поддържа ли различни доставчици на AI услуги?",
358
- "q15": "Какво да направя, ако срещна проблеми при използването?"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "Научи повече",
362
345
  "title": "Опитайте да попитате:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview ist das neueste experimentelle Forschungsmodell von Qwen, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert. Durch die Erforschung komplexer Mechanismen wie Sprachmischung und rekursive Inferenz bietet es Hauptvorteile wie starke Analysefähigkeiten, mathematische und Programmierfähigkeiten. Gleichzeitig gibt es Herausforderungen wie Sprachwechsel, Inferenzzyklen, Sicherheitsüberlegungen und Unterschiede in anderen Fähigkeiten."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image ist ein von Alibabas Tongyi Qianwen-Team entwickeltes Basismodell zur Bildgenerierung mit 20 Milliarden Parametern. Das Modell erzielt bemerkenswerte Fortschritte bei der komplexen Textrendering und präzisen Bildbearbeitung und ist besonders gut darin, Bilder mit hochauflösenden chinesischen und englischen Texten zu erzeugen. Qwen-Image kann nicht nur mehrzeilige Layouts und absatzweise Texte verarbeiten, sondern bewahrt auch die Kohärenz des Layouts und die Kontextharmonie bei der Bildgenerierung. Neben seiner herausragenden Textrendering-Fähigkeit unterstützt das Modell eine breite Palette künstlerischer Stile – von realistischen Fotografien bis hin zu Anime-Ästhetik – und passt sich flexibel an verschiedene kreative Anforderungen an. Darüber hinaus verfügt es über leistungsstarke Bildbearbeitungs- und Bildverständnisfähigkeiten, einschließlich Stiltransfer, Objektentfernung und -hinzufügung, Detailverbesserung, Textbearbeitung und sogar Steuerung menschlicher Posen. Ziel ist es, ein umfassendes intelligentes Basismodell für visuelle Kreation und Verarbeitung zu sein, das Sprache, Layout und Bild vereint."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 ist die neueste Version des Bildbearbeitungsmodells Qwen-Image, entwickelt vom Tongyi Qianwen-Team bei Alibaba. Das Modell basiert auf dem 20B-Parameter-Modell Qwen-Image und wurde gezielt weitertrainiert, um dessen einzigartige Textrendering-Fähigkeiten erfolgreich auf den Bereich der Bildbearbeitung zu übertragen – insbesondere für die präzise Bearbeitung von Texten in Bildern. Qwen-Image-Edit verwendet eine innovative Architektur, bei der das Eingabebild gleichzeitig in Qwen2.5-VL (für semantische Steuerung) und den VAE-Encoder (für visuelle Erscheinungskontrolle) eingespeist wird. Dadurch ermöglicht es sowohl semantische als auch visuelle Bearbeitungen. Das bedeutet, dass es nicht nur lokale visuelle Änderungen wie das Hinzufügen, Entfernen oder Modifizieren von Elementen unterstützt, sondern auch komplexe semantische Bearbeitungen wie IP-Kreationen oder Stilübertragungen, bei denen die inhaltliche Konsistenz gewahrt bleibt. In mehreren öffentlichen Benchmark-Tests erzielte das Modell Spitzenleistungen (SOTA) und etabliert sich damit als leistungsstarkes Basismodell für die Bildbearbeitung."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking ist ein von Alibaba Tongyi Qianwen Team veröffentlichtes nächstes Generation Basis-Modell, das speziell für komplexe Inferenzaufgaben entwickelt wurde. Es basiert auf der innovativen Qwen3-Next-Architektur, die hybride Aufmerksamkeitsmechanismen (Gated DeltaNet und Gated Attention) mit einer hochgradig spärlichen Mixture-of-Experts (MoE)-Struktur kombiniert, um höchste Trainings- und Inferenz-Effizienz zu gewährleisten. Als spärliches Modell mit insgesamt 80 Milliarden Parametern werden bei der Inferenz nur etwa 3 Milliarden Parameter aktiviert, was die Rechenkosten stark reduziert. Bei der Verarbeitung von Langkontextaufgaben mit über 32K Tokens übertrifft der Durchsatz das Qwen3-32B-Modell um das Zehnfache. Diese „Thinking“-Version ist für anspruchsvolle mehrstufige Aufgaben wie mathematische Beweise, Code-Synthese, logische Analyse und Planung optimiert und gibt den Inferenzprozess standardmäßig in strukturierter „Denkketten“-Form aus. In der Leistung übertrifft es nicht nur kostenintensivere Modelle wie Qwen3-32B-Thinking, sondern auch in mehreren Benchmarks das Gemini-2.5-Flash-Thinking."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct ist ein visuelles Sprachmodell der Qwen3-Serie, basierend auf Qwen3-8B-Instruct und auf umfangreichen Bild-Text-Daten trainiert. Es ist spezialisiert auf allgemeines visuelles Verständnis, visuell zentrierte Dialoge und mehrsprachige Texterkennung in Bildern. Es eignet sich für Szenarien wie visuelle Frage-Antwort-Systeme, Bildbeschreibungen, multimodale Befehlsausführung und Tool-Integration."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking ist die Version der Qwen3-Serie mit Fokus auf visuelles Denken. Sie wurde für komplexe, mehrstufige Schlussfolgerungsaufgaben optimiert und generiert standardmäßig eine schrittweise Denkweise (Thinking Chain), um die Genauigkeit der Schlussfolgerungen zu verbessern. Ideal für Szenarien, die tiefgreifende visuelle Analysen erfordern, wie visuelle Frage-Antwort-Systeme oder die detaillierte Auswertung von Bildinhalten."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das 128k Kontext unterstützt. Im Vergleich zu den derzeit besten Open-Source-Modellen übertrifft Qwen2-72B in den Bereichen natürliche Sprachverständnis, Wissen, Code, Mathematik und Mehrsprachigkeit deutlich die führenden Modelle."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "Schreibteam"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "Was ist LobeHub?",
345
- "q02": "Was ist {{appName}}?",
346
- "q03": "Hat {{appName}} Community-Support?",
347
- "q04": "Welche Funktionen unterstützt {{appName}}?",
348
- "q05": "Wie wird {{appName}} bereitgestellt und verwendet?",
349
- "q06": "Wie ist die Preisgestaltung von {{appName}}?",
350
- "q07": "Ist {{appName}} kostenlos?",
351
- "q08": "Gibt es eine Cloud-Service-Version?",
352
- "q09": "Unterstützt es lokale Sprachmodelle?",
353
- "q10": "Unterstützt es Bildverarbeitung und -erzeugung?",
354
- "q11": "Unterstützt es Sprachsynthese und Spracherkennung?",
355
- "q12": "Unterstützt es ein Plug-in-System?",
356
- "q13": "Gibt es einen eigenen Marktplatz für GPTs?",
357
- "q14": "Unterstützt es mehrere AI-Dienstanbieter?",
358
- "q15": "Was soll ich tun, wenn ich Probleme bei der Nutzung habe?"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "Mehr erfahren",
362
345
  "title": "Versuchen Sie zu fragen:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview is Qwen's latest experimental research model, focusing on enhancing AI reasoning capabilities. By exploring complex mechanisms such as language mixing and recursive reasoning, its main advantages include strong analytical reasoning, mathematical, and programming abilities. However, it also faces challenges such as language switching issues, reasoning loops, safety considerations, and differences in other capabilities."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image is a foundational image generation model developed by Alibaba's Tongyi Qianwen team, featuring 20 billion parameters. The model has made significant advancements in complex text rendering and precise image editing, excelling particularly at generating images with high-fidelity Chinese and English text. Qwen-Image can handle multi-line layouts and paragraph-level text while maintaining coherent typography and contextual harmony in generated images. Beyond its exceptional text rendering capabilities, the model supports a wide range of artistic styles—from photorealism to anime aesthetics—adapting flexibly to diverse creative needs. It also boasts powerful image editing and understanding capabilities, supporting advanced operations such as style transfer, object addition/removal, detail enhancement, text editing, and even human pose manipulation. Qwen-Image is designed to be a comprehensive foundational model for intelligent visual creation and processing, integrating language, layout, and imagery."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 is the latest image editing version of Qwen-Image, released by Alibaba's Tongyi Qianwen team. Built upon the 20B-parameter Qwen-Image model, it has been further trained to extend its unique text rendering capabilities into the domain of image editing, enabling precise manipulation of text within images. Qwen-Image-Edit employs an innovative architecture that feeds the input image into both Qwen2.5-VL (for visual semantic control) and a VAE Encoder (for visual appearance control), enabling dual editing capabilities in both semantics and appearance. This allows for not only localized visual edits such as adding, removing, or modifying elements, but also high-level semantic edits like IP creation and style transfer that require semantic consistency. The model has demonstrated state-of-the-art (SOTA) performance across multiple public benchmarks, making it a powerful foundational model for image editing."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking is the next-generation foundational model released by Alibaba's Tongyi Qianwen team, specifically designed for complex reasoning tasks. It is based on the innovative Qwen3-Next architecture, which integrates a hybrid attention mechanism (Gated DeltaNet and Gated Attention) and a highly sparse mixture-of-experts (MoE) structure, aiming for ultimate training and inference efficiency. As a sparse model with a total of 80 billion parameters, it activates only about 3 billion parameters during inference, greatly reducing computational costs. When processing long-context tasks exceeding 32K tokens, its throughput is more than 10 times higher than the Qwen3-32B model. This \"Thinking\" version is optimized for executing challenging multi-step tasks such as mathematical proofs, code synthesis, logical analysis, and planning, and by default outputs the reasoning process in a structured \"chain-of-thought\" format. In terms of performance, it not only surpasses higher-cost models like Qwen3-32B-Thinking but also outperforms Gemini-2.5-Flash-Thinking on multiple benchmarks."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct is a vision-language model from the Qwen3 series, built on Qwen3-8B-Instruct and trained on a large corpus of image-text data. It excels at general visual understanding, vision-centric dialogue, and multilingual text recognition within images. It is well-suited for tasks such as visual question answering, image captioning, multimodal instruction following, and tool invocation."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking is the visual reasoning variant of the Qwen3 series, optimized for complex multi-step reasoning tasks. By default, it generates a step-by-step thinking chain before answering, enhancing reasoning accuracy. It is ideal for scenarios requiring in-depth reasoning, such as visual question answering and detailed analysis of image content."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 is the latest series of the Qwen model, supporting 128k context. Compared to the current best open-source models, Qwen2-72B significantly surpasses leading models in natural language understanding, knowledge, coding, mathematics, and multilingual capabilities."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "Writing Circle"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "What is LobeHub?",
345
- "q02": "What is {{appName}}?",
346
- "q03": "Does {{appName}} have community support?",
347
- "q04": "What features does {{appName}} support?",
348
- "q05": "How do I deploy and use {{appName}}?",
349
- "q06": "What is the pricing for {{appName}}?",
350
- "q07": "Is {{appName}} free?",
351
- "q08": "Is there a cloud service version available?",
352
- "q09": "Does it support local language models?",
353
- "q10": "Does it support image recognition and generation?",
354
- "q11": "Does it support speech synthesis and speech recognition?",
355
- "q12": "Does it support a plugin system?",
356
- "q13": "Is there a marketplace to acquire GPTs?",
357
- "q14": "Does it support multiple AI service providers?",
358
- "q15": "What should I do if I encounter issues while using it?"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "Learn More",
362
345
  "title": "Try asking:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview es el último modelo de investigación experimental de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA. A través de la exploración de mecanismos complejos como la mezcla de lenguajes y el razonamiento recursivo, sus principales ventajas incluyen una poderosa capacidad de análisis de razonamiento, así como habilidades matemáticas y de programación. Sin embargo, también presenta problemas de cambio de idioma, ciclos de razonamiento, consideraciones de seguridad y diferencias en otras capacidades."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image es un modelo base de generación de imágenes desarrollado por el equipo Tongyi Qianwen de Alibaba, con 20 mil millones de parámetros. Este modelo ha logrado avances significativos en la representación compleja de texto y la edición precisa de imágenes, destacándose especialmente en la generación de imágenes con texto en chino e inglés de alta fidelidad. Qwen-Image no solo puede manejar diseños de múltiples líneas y textos a nivel de párrafo, sino que también mantiene la coherencia tipográfica y la armonía contextual al generar imágenes. Además de su sobresaliente capacidad de renderizado de texto, el modelo admite una amplia gama de estilos artísticos, desde fotografía realista hasta estética de anime, adaptándose con flexibilidad a diversas necesidades creativas. También posee potentes capacidades de edición y comprensión de imágenes, incluyendo transferencia de estilo, adición y eliminación de objetos, mejora de detalles, edición de texto e incluso manipulación de posturas humanas. Su objetivo es convertirse en un modelo base integral para la creación y procesamiento visual inteligente que integre lenguaje, diseño y contenido visual."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 es la versión más reciente de edición de imágenes del modelo Qwen-Image, lanzado por el equipo Tongyi Qianwen de Alibaba. Este modelo ha sido entrenado en profundidad sobre la base del modelo Qwen-Image de 20 mil millones de parámetros, extendiendo con éxito su capacidad única de renderizado de texto al ámbito de la edición de imágenes, logrando una edición precisa del texto dentro de las imágenes. Qwen-Image-Edit adopta una arquitectura innovadora que envía la imagen de entrada simultáneamente a Qwen2.5-VL (para el control semántico visual) y al codificador VAE (para el control de la apariencia visual), lo que le otorga una capacidad de edición dual tanto semántica como visual. Esto significa que no solo permite ediciones locales de apariencia como agregar, eliminar o modificar elementos, sino también ediciones semánticas visuales avanzadas que requieren coherencia semántica, como la creación de propiedad intelectual (IP) o la transferencia de estilo. El modelo ha demostrado un rendimiento de vanguardia (SOTA) en múltiples pruebas de referencia públicas, consolidándose como un potente modelo base para la edición de imágenes."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking es un modelo base de próxima generación lanzado por el equipo Tongyi Qianwen de Alibaba, diseñado específicamente para tareas complejas de razonamiento. Basado en la innovadora arquitectura Qwen3-Next, que integra mecanismos de atención híbrida (Gated DeltaNet y Gated Attention) y una estructura de expertos mixtos altamente dispersos (MoE), busca alcanzar una eficiencia extrema en entrenamiento e inferencia. Como modelo disperso con 80 mil millones de parámetros totales, solo activa alrededor de 3 mil millones durante la inferencia, reduciendo considerablemente el costo computacional. En tareas de contexto largo que superan los 32K tokens, su rendimiento es más de 10 veces superior al modelo Qwen3-32B. Esta versión “Thinking” está optimizada para ejecutar tareas complejas de múltiples pasos como demostraciones matemáticas, síntesis de código, análisis lógico y planificación, y por defecto produce el proceso de razonamiento en forma estructurada de “cadena de pensamiento”. En rendimiento, supera no solo a modelos más costosos como Qwen3-32B-Thinking, sino también a Gemini-2.5-Flash-Thinking en múltiples benchmarks."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct es un modelo de lenguaje visual de la serie Qwen3, desarrollado a partir de Qwen3-8B-Instruct y entrenado con grandes volúmenes de datos de texto e imagen. Se especializa en comprensión visual general, diálogos centrados en lo visual y reconocimiento multilingüe de texto en imágenes. Es adecuado para tareas como preguntas y respuestas visuales, descripción de imágenes, seguimiento de instrucciones multimodales y activación de herramientas."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking es la versión de razonamiento visual de la serie Qwen3, optimizada para tareas complejas de razonamiento en múltiples pasos. Por defecto, genera una cadena de pensamiento antes de responder, con el fin de mejorar la precisión del razonamiento. Es ideal para escenarios que requieren razonamiento profundo, como preguntas y respuestas visuales complejas o análisis detallado del contenido de imágenes."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 es la última serie del modelo Qwen, que admite un contexto de 128k. En comparación con los modelos de código abierto más óptimos actuales, Qwen2-72B supera significativamente a los modelos líderes actuales en comprensión del lenguaje natural, conocimiento, código, matemáticas y capacidades multilingües."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "Círculo de escritura"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "¿Qué es LobeHub?",
345
- "q02": "¿Qué es {{appName}}?",
346
- "q03": "¿{{appName}} tiene soporte comunitario?",
347
- "q04": "¿Qué funciones soporta {{appName}}?",
348
- "q05": "¿Cómo se despliega y utiliza {{appName}}?",
349
- "q06": "¿Cuál es el precio de {{appName}}?",
350
- "q07": "¿{{appName}} es gratuito?",
351
- "q08": "¿Hay una versión en la nube?",
352
- "q09": "¿Soporta modelos de lenguaje locales?",
353
- "q10": "¿Soporta reconocimiento y generación de imágenes?",
354
- "q11": "¿Soporta síntesis de voz y reconocimiento de voz?",
355
- "q12": "¿Soporta un sistema de plugins?",
356
- "q13": "¿Tiene su propio mercado para obtener GPTs?",
357
- "q14": "¿Soporta múltiples proveedores de servicios de IA?",
358
- "q15": "¿Qué debo hacer si tengo problemas al usarlo?"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "Saber más",
362
345
  "title": "Intenta preguntar:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزم‌های پیچیده‌ای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامه‌نویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقه‌های استدلال، ملاحظات ایمنی و تفاوت‌های دیگر در توانایی‌ها وجود دارد."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image یک مدل پایه تولید تصویر است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته و دارای ۲۰ میلیارد پارامتر می‌باشد. این مدل در رندر متون پیچیده و ویرایش دقیق تصاویر پیشرفت‌های چشمگیری داشته و به‌ویژه در تولید تصاویری با متون چینی و انگلیسی با وفاداری بالا بسیار توانمند است. Qwen-Image نه تنها قادر به پردازش چیدمان‌های چندخطی و متون در سطح پاراگراف است، بلکه در حین تولید تصویر، انسجام تایپوگرافی و هماهنگی با زمینه را نیز حفظ می‌کند. افزون بر توانایی برجسته در رندر متن، این مدل از سبک‌های هنری متنوعی پشتیبانی می‌کند؛ از عکس‌های واقع‌گرایانه گرفته تا زیبایی‌شناسی انیمه، و می‌تواند به‌طور انعطاف‌پذیر با نیازهای مختلف خلاقانه سازگار شود. همچنین، این مدل دارای قابلیت‌های قدرتمند در ویرایش و درک تصویر است و از عملیات پیشرفته‌ای مانند انتقال سبک، افزودن یا حذف اشیاء، تقویت جزئیات، ویرایش متن و حتی کنترل حالت بدن انسان پشتیبانی می‌کند. هدف آن تبدیل شدن به یک مدل پایه هوشمند و جامع برای خلق و پردازش بصری است که زبان، چیدمان و تصویر را در هم می‌آمیزد."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 جدیدترین نسخه ویرایش تصویر از مدل Qwen-Image است که توسط تیم Tongyi Qianwen شرکت علی‌بابا منتشر شده است. این مدل بر پایه مدل ۲۰ میلیارد پارامتری Qwen-Image توسعه یافته و با آموزش عمیق، توانایی منحصربه‌فرد خود در رندر متن را به حوزه ویرایش تصویر گسترش داده و امکان ویرایش دقیق متون درون تصویر را فراهم کرده است. Qwen-Image-Edit از معماری نوآورانه‌ای بهره می‌برد که تصویر ورودی را به‌طور هم‌زمان به Qwen2.5-VL (برای کنترل معنایی بصری) و VAE Encoder (برای کنترل ظاهر بصری) ارسال می‌کند و بدین ترتیب توانایی ویرایش دوگانه در سطح معنا و ظاهر را فراهم می‌سازد. این بدان معناست که مدل نه تنها از ویرایش‌های ظاهری موضعی مانند افزودن، حذف یا تغییر عناصر پشتیبانی می‌کند، بلکه قادر به انجام ویرایش‌های معنایی پیشرفته‌ای مانند خلق IP، انتقال سبک و حفظ انسجام معنایی نیز می‌باشد. این مدل در چندین آزمون معیار عمومی عملکردی در سطح پیشرفته (SOTA) از خود نشان داده و به یک مدل پایه قدرتمند در زمینه ویرایش تصویر تبدیل شده است."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen 2 Instruct (72B) دستورالعمل‌های دقیق برای کاربردهای سازمانی ارائه می‌دهد و به درستی به آن‌ها پاسخ می‌دهد."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علی‌بابا برای وظایف استنتاج پیچیده طراحی شده است. این مدل بر اساس معماری نوآورانه Qwen3-Next ساخته شده که مکانیزم توجه ترکیبی (Gated DeltaNet و Gated Attention) و ساختار متخصص ترکیبی با پراکندگی بالا (MoE) را ادغام می‌کند تا به بالاترین کارایی در آموزش و استنتاج دست یابد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال می‌شوند که هزینه محاسباتی را به طور چشمگیری کاهش می‌دهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی آن بیش از ۱۰ برابر مدل Qwen3-32B است. این نسخه «Thinking» به طور خاص برای انجام وظایف چندمرحله‌ای دشوار مانند اثبات ریاضی، ترکیب کد، تحلیل منطقی و برنامه‌ریزی بهینه شده و به طور پیش‌فرض فرایند استنتاج را به صورت ساختاریافته و در قالب «زنجیره فکری» ارائه می‌دهد. از نظر عملکرد، این مدل نه تنها از مدل‌های پرهزینه‌تر مانند Qwen3-32B-Thinking پیشی گرفته، بلکه در چندین بنچمارک از Gemini-2.5-Flash-Thinking نیز بهتر عمل می‌کند."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct یکی از مدل‌های زبان-بینایی از سری Qwen3 است که بر پایه Qwen3-8B-Instruct توسعه یافته و با حجم زیادی از داده‌های متنی-تصویری آموزش دیده است. این مدل در درک عمومی بصری، گفت‌وگوهای مبتنی بر تصویر و شناسایی متون چندزبانه در تصاویر مهارت دارد. مناسب برای کاربردهایی مانند پرسش و پاسخ بصری، توصیف تصویر، پیروی از دستورات چندوجهی و فراخوانی ابزارها می‌باشد."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking نسخه تفکر بصری از سری Qwen3 است که برای انجام وظایف پیچیده و چندمرحله‌ای استدلالی بهینه‌سازی شده است. این مدل به‌طور پیش‌فرض پیش از پاسخ‌دهی، زنجیره‌ای از تفکر مرحله‌به‌مرحله تولید می‌کند تا دقت استدلال را افزایش دهد. مناسب برای سناریوهایی است که نیاز به استدلال عمیق در پرسش و پاسخ بصری، بررسی محتوای تصویر و ارائه تحلیل‌های دقیق دارند."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 جدیدترین سری مدل‌های Qwen است که از 128k زمینه پشتیبانی می‌کند. در مقایسه با بهترین مدل‌های متن‌باز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدل‌های پیشرو فعلی فراتر رفته است."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "حلقه نویسندگی"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "LobeHub چیست؟",
345
- "q02": "{{appName}} چیست؟",
346
- "q03": "آیا {{appName}} پشتیبانی جامعه دارد؟",
347
- "q04": "{{appName}} چه قابلیت‌هایی دارد؟",
348
- "q05": "چگونه می‌توان {{appName}} را مستقر و استفاده کرد؟",
349
- "q06": "قیمت‌گذاری {{appName}} چگونه است؟",
350
- "q07": "آیا {{appName}} رایگان است؟",
351
- "q08": "آیا نسخه ابری وجود دارد؟",
352
- "q09": "آیا از مدل‌های زبانی محلی پشتیبانی می‌شود؟",
353
- "q10": "آیا از تشخیص و تولید تصویر پشتیبانی می‌شود؟",
354
- "q11": "آیا از تبدیل متن به گفتار و تشخیص گفتار پشتیبانی می‌شود؟",
355
- "q12": "آیا از سیستم افزونه‌ها پشتیبانی می‌شود؟",
356
- "q13": "آیا بازار مخصوصی برای دریافت GPTها وجود دارد؟",
357
- "q14": "آیا از چندین ارائه‌دهنده خدمات هوش مصنوعی پشتیبانی می‌شود؟",
358
- "q15": "اگر در حین استفاده با مشکلی مواجه شدم، چه کاری باید انجام دهم؟"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "بیشتر بدانید",
362
345
  "title": "سعی کن بپرسی:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview est le dernier modèle de recherche expérimental de Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA. En explorant des mécanismes complexes tels que le mélange de langues et le raisonnement récursif, ses principaux avantages incluent de puissantes capacités d'analyse de raisonnement, ainsi que des compétences en mathématiques et en programmation. Cependant, il existe également des problèmes de changement de langue, des cycles de raisonnement, des considérations de sécurité et des différences dans d'autres capacités."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image est un modèle de base de génération d’images développé par l’équipe Qwen d’Alibaba, doté de 20 milliards de paramètres. Ce modèle a réalisé des avancées significatives dans le rendu complexe de texte et l’édition d’image de haute précision, avec une capacité remarquable à générer des images contenant du texte en chinois et en anglais avec une grande fidélité. Qwen-Image gère non seulement la mise en page sur plusieurs lignes et les textes de niveau paragraphe, mais maintient également la cohérence typographique et l’harmonie contextuelle lors de la génération d’images. En plus de ses performances exceptionnelles en rendu de texte, le modèle prend en charge une large gamme de styles artistiques, allant de la photographie réaliste à l’esthétique anime, s’adaptant avec souplesse à divers besoins créatifs. Il dispose également de puissantes capacités d’édition et de compréhension d’images, permettant des opérations avancées telles que le transfert de style, l’ajout ou la suppression d’objets, l’amélioration des détails, l’édition de texte et même le contrôle de la posture humaine. L’objectif est d’en faire un modèle de base intelligent et polyvalent pour la création et le traitement visuel, intégrant langage, mise en page et image."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 est la dernière version d’édition d’image du modèle Qwen-Image, développée par l’équipe Qwen d’Alibaba. Ce modèle repose sur les 20 milliards de paramètres de Qwen-Image et a été entraîné en profondeur pour étendre ses capacités uniques de rendu de texte au domaine de l’édition d’image, permettant une modification précise du texte dans les images. Qwen-Image-Edit adopte une architecture innovante, envoyant l’image d’entrée simultanément à Qwen2.5-VL (pour le contrôle sémantique visuel) et à un encodeur VAE (pour le contrôle de l’apparence visuelle), offrant ainsi une double capacité d’édition sémantique et visuelle. Cela signifie qu’il prend en charge non seulement les modifications locales de l’apparence telles que l’ajout, la suppression ou la modification d’éléments, mais aussi des éditions sémantiques avancées nécessitant une cohérence conceptuelle, comme la création d’IP ou le transfert de style. Le modèle a démontré des performances de pointe (SOTA) sur plusieurs benchmarks publics, en faisant un modèle de base puissant pour l’édition d’image."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking est un modèle de base de nouvelle génération publié par l'équipe Tongyi Qianwen d'Alibaba, spécialement conçu pour les tâches de raisonnement complexes. Il repose sur l'architecture innovante Qwen3-Next, qui intègre un mécanisme d'attention hybride (Gated DeltaNet et Gated Attention) et une structure d'experts mixtes à haute sparsité (MoE), visant une efficacité extrême en entraînement et inférence. En tant que modèle sparse totalisant 80 milliards de paramètres, il n'active qu'environ 3 milliards de paramètres lors de l'inférence, réduisant significativement les coûts de calcul. Pour les tâches à contexte long dépassant 32K tokens, son débit est plus de 10 fois supérieur à celui du modèle Qwen3-32B. Cette version « Thinking » est optimisée pour exécuter des tâches complexes à étapes multiples telles que preuves mathématiques, synthèse de code, analyse logique et planification, et produit par défaut le processus de raisonnement sous forme structurée de « chaîne de pensée ». En termes de performance, il dépasse non seulement des modèles plus coûteux comme Qwen3-32B-Thinking, mais surpasse également Gemini-2.5-Flash-Thinking sur plusieurs benchmarks."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct est un modèle de langage visuel de la série Qwen3, développé à partir de Qwen3-8B-Instruct et entraîné sur un grand volume de données image-texte. Il excelle dans la compréhension visuelle générale, les dialogues centrés sur l’image et la reconnaissance multilingue de texte dans les images. Il est adapté aux cas d’usage tels que les questions-réponses visuelles, la description d’images, le suivi d’instructions multimodales et l’appel d’outils."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking est la version orientée raisonnement visuel de la série Qwen3, optimisée pour les tâches complexes de raisonnement en plusieurs étapes. Par défaut, il génère une chaîne de réflexion (thinking chain) avant de répondre, afin d’améliorer la précision du raisonnement. Il est particulièrement adapté aux scénarios nécessitant une analyse approfondie, comme les questions-réponses visuelles complexes ou l’examen détaillé du contenu d’une image."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le code, les mathématiques et le multilinguisme."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "Cercle d'écriture"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "Qu'est-ce que LobeHub ?",
345
- "q02": "Qu'est-ce que {{appName}} ?",
346
- "q03": "{{appName}} a-t-il un support communautaire ?",
347
- "q04": "Quelles fonctionnalités {{appName}} prend-il en charge ?",
348
- "q05": "Comment déployer et utiliser {{appName}} ?",
349
- "q06": "Quel est le prix de {{appName}} ?",
350
- "q07": "{{appName}} est-il gratuit ?",
351
- "q08": "Y a-t-il une version cloud ?",
352
- "q09": "Prend-il en charge les modèles de langue locaux ?",
353
- "q10": "Prend-il en charge la reconnaissance et la génération d'images ?",
354
- "q11": "Prend-il en charge la synthèse vocale et la reconnaissance vocale ?",
355
- "q12": "Prend-il en charge un système de plugins ?",
356
- "q13": "Y a-t-il un marché pour obtenir des GPTs ?",
357
- "q14": "Prend-il en charge plusieurs fournisseurs de services d'IA ?",
358
- "q15": "Que dois-je faire si je rencontre des problèmes lors de l'utilisation ?"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "En savoir plus",
362
345
  "title": "Essayez de demander :"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-Preview è l'ultimo modello di ricerca sperimentale di Qwen, focalizzato sul miglioramento delle capacità di ragionamento dell'IA. Esplorando meccanismi complessi come la mescolanza linguistica e il ragionamento ricorsivo, i principali vantaggi includono potenti capacità di analisi del ragionamento, abilità matematiche e di programmazione. Tuttavia, ci sono anche problemi di cambio linguistico, cicli di ragionamento, considerazioni di sicurezza e differenze in altre capacità."
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image è un modello di base per la generazione di immagini sviluppato dal team Tongyi Qianwen di Alibaba, con 20 miliardi di parametri. Il modello ha compiuto notevoli progressi nella resa complessa del testo e nell'editing preciso delle immagini, eccellendo in particolare nella generazione di immagini contenenti testi in cinese e inglese ad alta fedeltà. Qwen-Image è in grado di gestire layout su più righe e testi a livello di paragrafo, mantenendo coerenza tipografica e armonia contestuale durante la generazione delle immagini. Oltre alle sue eccellenti capacità di resa testuale, il modello supporta un'ampia gamma di stili artistici, dalle fotografie realistiche all'estetica anime, adattandosi con flessibilità a diverse esigenze creative. Inoltre, possiede potenti capacità di editing e comprensione delle immagini, supportando operazioni avanzate come trasferimento di stile, aggiunta o rimozione di oggetti, miglioramento dei dettagli, editing del testo e persino manipolazione della postura umana. L'obiettivo è quello di diventare un modello di base completo per la creazione e l'elaborazione visiva intelligente, integrando linguaggio, layout e immagine."
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 è l'ultima versione per l'editing di immagini del modello Qwen-Image, rilasciata dal team Tongyi Qianwen di Alibaba. Basato sul modello Qwen-Image da 20 miliardi di parametri, è stato ulteriormente addestrato per estendere le sue eccezionali capacità di resa testuale al campo dell'editing delle immagini, consentendo modifiche precise del testo all'interno delle immagini. Qwen-Image-Edit adotta un'architettura innovativa che invia l'immagine in input sia a Qwen2.5-VL (per il controllo semantico visivo) sia al VAE Encoder (per il controllo dell'aspetto visivo), ottenendo così una doppia capacità di editing semantico e visivo. Questo significa che il modello supporta non solo modifiche locali dell'aspetto, come aggiunta, rimozione o modifica di elementi, ma anche editing semantico avanzato che richiede coerenza concettuale, come la creazione IP o il trasferimento di stile. Il modello ha dimostrato prestazioni all'avanguardia (SOTA) in numerosi benchmark pubblici, rendendolo una potente base per l'editing di immagini."
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni."
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinking è un modello di base di nuova generazione rilasciato dal team Tongyi Qianwen di Alibaba, progettato specificamente per compiti di ragionamento complesso. Basato sull'innovativa architettura Qwen3-Next, che integra un meccanismo di attenzione ibrida (Gated DeltaNet e Gated Attention) e una struttura di esperti misti ad alta sparsità (MoE), mira a massimizzare l'efficienza di addestramento e inferenza. Come modello sparso con un totale di 80 miliardi di parametri, attiva solo circa 3 miliardi di parametri durante l'inferenza, riducendo notevolmente i costi computazionali. Nelle attività con contesti lunghi oltre 32K token, il throughput supera di oltre 10 volte quello del modello Qwen3-32B. Questa versione “Thinking” è ottimizzata per eseguire compiti multi-step complessi come dimostrazioni matematiche, sintesi di codice, analisi logica e pianificazione, e produce di default il processo di ragionamento in forma strutturata di “catena di pensiero”. In termini di prestazioni, supera non solo modelli più costosi come Qwen3-32B-Thinking, ma anche Gemini-2.5-Flash-Thinking in diversi benchmark."
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct è un modello linguistico-visivo della serie Qwen3, sviluppato a partire da Qwen3-8B-Instruct e addestrato su un ampio corpus di dati immagine-testo. È specializzato nella comprensione visiva generale, nel dialogo centrato sulla visione e nel riconoscimento multilingue del testo all'interno delle immagini. È adatto a scenari come domande e risposte visive, descrizione di immagini, esecuzione di istruzioni multimodali e utilizzo di strumenti."
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking è la versione di ragionamento visivo della serie Qwen3, ottimizzata per compiti complessi di ragionamento multi-step. Per impostazione predefinita, genera una catena di pensiero (thinking chain) prima di rispondere, al fine di migliorare l'accuratezza del ragionamento. È ideale per scenari che richiedono ragionamento approfondito, come domande e risposte visive complesse o analisi dettagliate del contenuto di un'immagine."
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue."
397
409
  },
@@ -340,23 +340,6 @@
340
340
  "title": "Cerchia di scrittura"
341
341
  }
342
342
  },
343
- "qa": {
344
- "q01": "Che cos'è LobeHub?",
345
- "q02": "Che cos'è {{appName}}?",
346
- "q03": "{{appName}} ha supporto della comunità?",
347
- "q04": "Quali funzionalità supporta {{appName}}?",
348
- "q05": "Come si installa e utilizza {{appName}}?",
349
- "q06": "Qual è il prezzo di {{appName}}?",
350
- "q07": "{{appName}} è gratuito?",
351
- "q08": "Esiste una versione cloud?",
352
- "q09": "Supporta modelli di linguaggio locali?",
353
- "q10": "Supporta il riconoscimento e la generazione di immagini?",
354
- "q11": "Supporta la sintesi vocale e il riconoscimento vocale?",
355
- "q12": "Supporta un sistema di plugin?",
356
- "q13": "C'è un mercato per ottenere GPT?",
357
- "q14": "Supporta diversi fornitori di servizi AI?",
358
- "q15": "Cosa devo fare se riscontro problemi durante l'uso?"
359
- },
360
343
  "questions": {
361
344
  "moreBtn": "Scopri di più",
362
345
  "title": "Prova a chiedere:"
@@ -311,6 +311,12 @@
311
311
  "Qwen/QwQ-32B-Preview": {
312
312
  "description": "QwQ-32B-PreviewはQwenの最新の実験的研究モデルで、AIの推論能力を向上させることに特化しています。言語の混合、再帰的推論などの複雑なメカニズムを探求することで、主な利点は強力な推論分析能力、数学およびプログラミング能力です。同時に、言語切り替えの問題、推論のループ、安全性の考慮、その他の能力の違いも存在します。"
313
313
  },
314
+ "Qwen/Qwen-Image": {
315
+ "description": "Qwen-Image は、アリババの通義千問チームによって開発された画像生成の基盤モデルで、200億のパラメータを備えています。このモデルは、複雑なテキストレンダリングや精密な画像編集において顕著な進歩を遂げており、特に高精度な中国語および英語の文字を含む画像の生成に優れています。Qwen-Image は、複数行のレイアウトや段落レベルのテキストにも対応し、画像生成時におけるレイアウトの一貫性と文脈の調和を保つことができます。卓越したテキストレンダリング能力に加え、リアルな写真からアニメ風の美学まで幅広いアートスタイルをサポートし、多様な創作ニーズに柔軟に対応可能です。また、スタイル変換、オブジェクトの追加・削除、ディテールの強化、テキスト編集、人体のポーズ操作などの高度な操作にも対応する強力な画像編集・理解能力を備えており、言語・レイアウト・画像を統合した包括的なインテリジェント視覚創作・処理の基盤モデルを目指しています。"
316
+ },
317
+ "Qwen/Qwen-Image-Edit-2509": {
318
+ "description": "Qwen-Image-Edit-2509 は、アリババの通義千問チームによって開発された Qwen-Image の最新画像編集バージョンです。本モデルは、200億パラメータの Qwen-Image を基に高度なトレーニングを施し、その独自のテキストレンダリング能力を画像編集分野へと拡張することに成功しました。特に、画像内の文字に対する精密な編集が可能です。Qwen-Image-Edit は革新的なアーキテクチャを採用しており、入力画像を Qwen2.5-VL(視覚的意味制御用)と VAE Encoder(視覚的外観制御用)に同時に入力することで、意味と外観の両面における編集能力を実現しています。これにより、要素の追加・削除・変更といった局所的な外観編集だけでなく、IP創作やスタイル変換など、意味の一貫性を保つ高度な視覚的意味編集にも対応可能です。複数の公開ベンチマークにおいて最先端(SOTA)の性能を示しており、強力な画像編集基盤モデルとして位置づけられています。"
319
+ },
314
320
  "Qwen/Qwen2-72B-Instruct": {
315
321
  "description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。"
316
322
  },
@@ -392,6 +398,12 @@
392
398
  "Qwen/Qwen3-Next-80B-A3B-Thinking": {
393
399
  "description": "Qwen3-Next-80B-A3B-Thinkingは、アリババのTongyi Qianwenチームによってリリースされた、複雑な推論タスク向けに設計された次世代基盤モデルです。革新的なQwen3-Nextアーキテクチャに基づき、ハイブリッド注意機構(Gated DeltaNetとGated Attention)と高スパース性混合エキスパート(MoE)構造を融合し、極限のトレーニングおよび推論効率を実現しています。総パラメータ数800億のスパースモデルとして、推論時には約30億パラメータのみを活性化し、計算コストを大幅に削減しています。32Kトークンを超える長文コンテキストタスクの処理においては、Qwen3-32Bモデルと比較してスループットが10倍以上向上しています。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、計画などの高難度多段階タスクの実行に最適化されており、推論過程を構造化された「思考チェーン」形式で出力することをデフォルトとしています。性能面では、Qwen3-32B-Thinkingなどのコストの高いモデルを凌駕し、複数のベンチマークでGemini-2.5-Flash-Thinkingを上回る結果を示しています。"
394
400
  },
401
+ "Qwen/Qwen3-VL-8B-Instruct": {
402
+ "description": "Qwen3-VL-8B-Instruct は、Qwen3 シリーズの視覚言語モデルであり、Qwen3-8B-Instruct を基に開発され、大量の画像と言語データでトレーニングされています。一般的な視覚理解、視覚中心の対話、画像内の多言語テキスト認識に優れており、視覚質問応答、画像説明、多モーダル指示の実行やツール呼び出しといったシナリオに適しています。"
403
+ },
404
+ "Qwen/Qwen3-VL-8B-Thinking": {
405
+ "description": "Qwen3-VL-8B-Thinking は、Qwen3 シリーズの視覚的思考モデルであり、複雑なマルチステップ推論タスクに最適化されています。回答の前に段階的な思考プロセス(thinking chain)を生成することで、推論の正確性を高める設計となっています。深い推論が求められる視覚質問応答や、画像内容の精査と詳細な分析が必要なシナリオに適しています。"
406
+ },
395
407
  "Qwen2-72B-Instruct": {
396
408
  "description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを大幅に上回っています。"
397
409
  },